오픈 AI, 새로운 AI 모델 ‘GPT-4o’ 출시
음성 인식 기능이 추가됐다.

챗GPT를 개발한 것으로 유명한 오픈AI가 새로운 인공지능(AI) 모델 ‘GPT-4o’를 공개했다.
금일 오픈AI의 행사에서 공개된 해당 프로그램은 보고 듣고 말하는 기능 등을 갖췄다. 해당 행사에서 미라 무라티 오픈AI CTO는 실시간 음성 대화를 통해 GPT-4o에게 여러 질문을 하고, 답변을 받는 모습을 시연했다.
GPT-4o의 ‘o’는 모든 것이라는 뜻을 가진 라틴어 ‘옴니(omni)’에서 따왔다. 실제로 GPT-4o는 텍스트와 음성을 이해하는 것 외에 이미지를 인식해 사용자와 소통하는 것도 가능하다. 한국어 등 영어 이외의 언어에 대한 답변의 정확도도 오른 것으로 알려졌다.
빠른 반응 속도 또한 장점이다. 챗GPT-3.5와 챗GPT-4의 응답 속도가 각각 평균 2.8초와 5.4초인 것에 반해 챗GPT-4o의 평균 응답 속도는 320밀리초에 불과하다. 이는 인간의 응답 시간과 비슷한 수준이다.
다만, GPT-4o는 음성 채팅 기능을 누락한 상태로 먼저 출시될 것으로 보인다.