[동아일보] [생성 AI 길라잡이] 더 사람 같아진 AI, 'GPT-4o'는 어떻게 다를까?
컨텐츠 정보
- 280 조회
- 목록
본문
지난 13일 열린 오픈AI의 GPT-4o의 발표 행사 / 출처=오픈AI
※생성 인공지능이 세계를 뜨겁게 달굽니다. 사람만큼, 더러는 사람보다 더 그림을 잘 그리고 글을 잘 쓰는 생성 인공지능. 생성 인공지능을 설치하고 활용하는 방법과 최신 소식을 매주 전합니다.
오픈AI가 지난 13일(현지시각) 최신 대형언어모델(LLM)인 ‘GPT-4o’를 발표했습니다. 구글 ‘제미나이’, 앤트로픽 ‘클로드’, 메타 ‘라마’ 등 수많은 LLM이 등장해 경쟁이 치열해지는 와중에 오픈AI가 이번 업데이트로 다시 한 번 기술 격차를 벌리고, 생성 AI 업계 대표이자 선두라는 걸 입증하는 모양새입니다.
GPT-4o의 o는 옴니(Omni)를 뜻합니다. ‘모든’을 뜻하는 라틴어 접두사입니다. 이 말에 걸맞게 글뿐만 아니라 사진, 영상, 음성 등 여러 종류 데이터를 처리할 수 있는 능력인 ‘멀티 모달리티(Multimodality)를 극한까지 밀어붙였습니다. 하나의 AI 모델로 모든 게 가능한 ‘옴니 모델(Omni Model)’이라는 의미가 담긴 이름입니다. 그야말로 만능인 셈입니다.
이번 발표의 하이라이트라고 할 수 있는 음성 모드가 옴니모델의 특장점을 잘 보여줍니다. 음성 모드는 사람과 대화하듯 챗GPT와 음성으로 대화하는 기능입니다. 이번 GPT-4o의 적용으로 반응 속도가 최소 232밀리초, 평균 320밀리초 수준으로 개선됐습니다. 2~5초 수준이었던 이전 버전들과는 비교하면 환골탈태 수준입니다.
오픈AI의 시연을 보면 마치 인간과 대화하는 듯한 자연스러움을 느낄 수 있는데, 실제로 250밀리초 수준으로 알려진 인간만큼 반응 속도가 빠르기 때문입니다. 이렇게 음성 모드가 빨라진 건 음성을 음성 그 자체로 인식하고 처리할 수 있게 됐기 때문입니다. 이전에는 음성을 텍스트로 바꿔 인식하고, 답변도 텍스트로 생성한 다음 이를 단순 음성 합성으로 읊는 방식이었다고 합니다.
처리 방식이 바뀌면서 반응 속도만 빨라진 게 아니라 음성에 담긴 톤이나 배경에 섞인 소리도 인식할 수 있게 됐습니다. 반대로 AI가 목소리에 감정을 담거나, 웃거나, 노래를 부르는 일도 가능해졌습니다. 오픈AI가 공개한 시연 영상을 보면 챗GPT가 사용자의 농담에 반응해 웃거나, 자장가를 부릅니다. 두 챗GPT가 서로 자연스럽게 대화를 이어가기도 합니다.
샘 올트먼 오픈AI CEO는 AI와 사랑에 빠지는 영화 ‘그녀(Her)’를 언급하기도 했는데, 영화에나 나올 법한 사람 같은 수준의 AI가 현실이 됐다는 평가도 그리 과장은 아닌 것처럼 느껴질 정도입니다. 이 모든 게 GPT-4o가 텍스트, 화상, 오디오 등 여러 형태의 데이터를 하나의 신경망으로 처리하는 옴니모델이기에 가능한 일입니다.
발표와 함께 오픈AI는 우선 GPT-4o의 텍스트와 이미지 기능을 먼저 출시했습니다. 월 20달러(약 2만 7100원)의 유료 서비스 ‘챗GPT 플러스’ 이용자에게만 제공됐던 GPT-4, GPT-4 터보 등과 달리 무료 이용자들도 현재 이용이 가능합니다. 다만 이용 가능한 메시지 수에 제한이 있습니다. 사용량과 수요에 따라 유동적으로 결정됩니다. 유료 이용자는 무료 이용자보다 5배 더 많은 메시지를 이용할 수 있습니다.
다만 아쉽게도 음성 모드는 아직 출시되지 않았습니다. 오픈AI는 앞으로 몇 주 내에 음성 모드 알파 버전을 일부 유료 이용자를 대상으로 순차 출시할 예정이라고 밝혔습니다.
IT동아 권택경 기자 [email protected]