입력 : 2024-05-14 09:31:05
오픈AI는 13일에 진행된 이벤트에서 새로운 대형 언어 모델(LLM) GTP-4O를 발표했는데, 방대한 양의 데이터를 학습해 텍스트 및 음성, 이미지 등 명령에 대응하게 된다. 총 50개 언어를 지원한다.
GPT-4O에 말을 걸면 불과 몇 밀리초 만에 답변을 제공해 실제 대화가 가능해진다고 한다. GPT-4O는 음성 입력에 대해서는 최소 232밀리초, 평균 320밀리초 내로 응답한다. 기존 GPT-4보다 대폭 답변 속도가 빨라진 것으로 “대화 중 사람의 응답 시간”과 거의 같은 수준이다.
GPT-4O는 GPT-4보다 빠르게 텍스트·음성(Voice)·시각(Vision) 명령에 대응한다. 예를 들어 다른 언어로 작성된 음식 메뉴 사진을 촬영해서, GPT-4O에게 번역을 맡길 수 있으며, 요리의 역사나 조리법 까지 배울 수 있다.
향후 더 실시간 음성이나 동영상으로 챗GPT와 대화할 수도 있게 된다. 예를 들어 챗GPT에 스포츠 경기 중계를 보여주고, 규칙을 설명해달라고 명령할 수 있게 된다. 이러한 신기능을 갖춘 새로운 음성 모드를, 향후 수주 내에 알파(α) 버전으로 발표한다.
오픈AI 미라 무라티 최고기술책임자(CTO)는 "GTP-4O는 성능이 비약적으로 향상되어 실제 공동 작업이 실현됐다.“고 밝혔다. 오픈AI 샘 올트먼 최고경영자(CEO)는 이날 행사가 끝난 뒤 X에 글을 올리고 “더 많은 제품을 곧 출시할 것"이라고 말했다.
한편, 구글은 14일 개발자 회의를 개최한다. 구글은 이 자리에서 AI 모델의 추가 업데이트를 발표할 것으로 전망되어 오픈AI와 치열한 경쟁이 예상된다.
베타뉴스 우예진 기자 (leejik@betanews.net)
Copyrights ⓒ BetaNews.net
-
- 목록
- 위로