전체메뉴

시리즈
닫기
이제 해당 작성자의 댓글 내용을
확인할 수 없습니다.
닫기
삭제하시겠습니까?
이제 해당 댓글 내용을 확인할 수 없습니다

시각장애인이 GPT-4o 쓰자 '깜짝'..."AI가 세상 들여다본다" [지금이뉴스]

지금 이 뉴스 2024.05.14 오후 04:21
AD
챗GPT 개발사 오픈AI가 13일(현지시간) 보고 듣고 말하는 새로운 AI 모델을 공개했습니다.


'GPT-4o'는 주로 텍스트를 통해 대화할 수 있었던 기존 모델과 달리 이용자와 실시간 음성 대화를 통해 질문하고 답변을 요청할 수 있는 AI 모델입니다.

새 모델의 'o'는 모든 것이라는 '옴니'(omni)를 뜻합니다.

이 모델은 텍스트는 물론, 청각과 시각으로도 추론하고 이를 말할 수 있는 한층 똑똑해진 된 음성 어시스턴트입니다.

해당 모델은 카메라 렌즈로 주변 상황을 파악할 수도 있습니다.

13일 오픈 AI가 공개한 영상에는 지피티가 시각 장애인의 택시 탑승을 돕는 장면이 나옵니다.

[시각장애인 : 집에 가야겠어. 빈 택시를 찾아줘]
[챗GPT-4o : 방금 한 대 찾았어요. 왼쪽 도로에서 당신쪽으로 오고 있어요. 손을 내밀어 부를 준비를 하세요.]

오픈AI는 'GPT-4o' 모델이 기존 GPT-4 터보보다 두 배 더 빠르고 비용은 2분의 1 수준이라고 설명했습니다.

또 새 모델로 한국어 등 50개 언어에 대한 챗GPT의 품질과 속도가 향상됐으며 이날부터 개발자들이 새 모델을 사용해 애플리케이션을 구축할 수 있도록 오픈AI의 API(응용 프로그램 인터페이스)를 통해서도 이용할 수 있다고 오픈AI는 덧붙였습니다.


무료로 제공되지만 기존 유료 구독자는 무료 이용자보다 5배 많은 질문을 할 수 있고, 이날 시연된 AI 음성 모드는 몇 주 안에 공개될 예정입니다.


AI앵커 : Y-GO
자막편집 : 정의진
영상출처 : 유튜브 OpenAI
AD
AD

Y녹취록

YTN 뉴스를 만나는 또 다른 방법

전체보기
YTN 유튜브
구독 4,820,000
YTN 네이버채널
구독 5,663,593
YTN 페이스북
구독 703,845
YTN 리더스 뉴스레터
구독 17,426
YTN 엑스
팔로워 361,512