[OpenAI 개발자 컨퍼런스] GPT-4 Turbo 발표 및 플랫폼 업데이트 소식(2023년 11월 6일)

Posted by

2023년 11월 6일, 샌프란시스코에서 OpenAI의 첫 번째 개발자 컨퍼런스가 열렸으며, GPT-4 Turbo를 비롯하여 플랫폼 전반에 걸친 매력적인 새로운 기능들과 주목할 만한 가격 인하를 발표했다. 이번 업데이트에는 개발자들에게 강력한 새 도구를 제공하고, AI 애플리케이션 구축을 더욱 쉽게 만들기 위한 여러 가지 개선 사항이 포함되어 있다. 이제 자세한 내용을 확인해보자.

개발자 컨퍼런스 내용 정리

주요 업데이트설명비고
GPT-4 Turbo– 128K 컨텍스트 윈도우 제공
– 2023년 3월 첫 출시 후 개발자 컨퍼런스에서 프리뷰 버전 발표
– API를 통해 gpt-4-1106-preview로 접근 가능
– 향후 안정적인 모델 출시 예정
– 컨텍스트 윈도우: 단일 프롬프트에서 처리할 수 있는 데이터의 양
GPT-3.5 Turbo 업데이트– 컨텍스트 윈도우 4K에서 16K로 확장
– 명령 수행 능력 38% 향상
– gpt-3.5-turbo-1106를 통한 접근 가능
– 기존 앱은 2023년 12월 11일 자동 업그레이드 예정
– 향상된 문맥 이해와 작업 수행 능력
Assistants API– 특정 목표 가진 AI 비서 개발
– 복잡한 지시 이해 및 다양한 작업 수행
– ‘무한히 긴 스레드’ 지원으로 상태 관리 용이
– AI 비서의 확장된 기능과 능력
Retrieval– 모델 외부의 지식 통합
– 독점 데이터, 제품 정보, 사용자 문서 통합 가능
– 임베딩 계산 및 저장, 청킹 및 검색 알고리즘 필요 없음
– Assistants API와 결합하여 지식 검색 최적화
Code Interpreter– 파이썬 코드 샌드박스 실행 환경 제공
– 그래프, 차트 생성 및 다양한 데이터 처리 지원
– 반복적인 코딩 작업과 복잡한 문제 해결 가능
새로운 모달리티– GPT-4 Turbo와 이미지 처리 결합
– DALL·E 3을 통한 창의적 이미지 생성
– 텍스트-투-스피치(TTS)로 사실적 음성 생성
– 이미지 입력, 창의적 이미지 생성, 사실적 음성 변환 기능 추가
가격 인하 및 비율 제한 증가– GPT-4 Turbo와 GPT-3.5 Turbo 모델의 가격 인하
– 토큰당 분 당 한계 두 배 증가
– 낮아진 가격과 높아진 사용 한계로 더 많은 사용 사례 가능

128K 컨텍스트의 GPT-4 Turbo

OpenAI는 2023년 3월에 GPT-4의 첫 번째 버전을 출시했고 7월에 모든 개발자들에게 GPT-4를 일반 사용으로 공개했다. 그리고 이번 개발자 컨퍼런스에서 GPT-4의 다음 세대인 GPT-4 Turbo의 프리뷰를 출시하였다.
GPT-4 Turbo는 모든 유료 개발자들이 API에서 gpt-4-1106-preview를 통해 시도해볼 수 있으며, 앞으로 몇 주 안에 안정적이고 생산 준비가 완료된 모델을 출시할 계획이라고 밝혔다.

128K 컨텍스트 윈도우란 무엇인가?

“128K 컨텍스트”는 GPT-4 Turbo가 단일 프롬프트에서 처리할 수 있는 데이터의 양을 의미한다. 이는 약 300페이지의 텍스트에 해당하는 매우 큰 양으로, 복잡한 문서를 분석하거나, 긴 대화를 지속하거나, 방대한 정보를 필요로 하는 작업을 수행할 수 있게 해줄 것이다.

GPT-4 Turbo의 혁신적인 성능

GPT-4 Turbo는 그 성능이 대폭 향상되어, 이제는 2023년 4월까지의 세계 사건에 대한 지식을 갖추고 있으며, 이전 모델들보다 훨씬 정교하고 다양한 작업을 수행할 수 있게 되었다. 또한, 향상된 문맥 이해 능력을 통해 더욱 정확하고 자연스러운 대화가 가능해졌다.


업데이트된 GPT-3.5 Turbo

컨텍스트 윈도우 확장

이번 업데이트를 통해 GPT-3.5 Turbo는 기존 4K컨텍스트 윈도우에서 16K 컨텍스트 윈도우로 확장 지원하게 되었다. 이는 이전 모델에 비해 크게 향상된 것으로, 개발자들은 더 긴 문맥을 유지하며 AI와 상호작용할 수 있게 되었다. 이는 복잡한 문서 분석, 긴 대화 유지, 다양한 데이터 분석과 같은 작업에 큰 도움이 될 것이다.

향상된 명령 수행 능력

OpenAI의 내부 평가에 따르면, 특정 형식을 따르는 작업 수행 능력이 38% 향상되었다고 한다. 이는 JSON, XML, YAML과 같은 형식을 생성하는 데 있어 AI의 정확성과 효율성을 크게 높일 것이며, 개발자들은 이제 더욱 정밀한 지시에 대한 응답을 AI로부터 기대할 수 있을 것이다.

간편한 접근성과 자동 업그레이드

개발자들은 새로운 모델에 접근하기 위해 API에서 gpt-3.5-turbo-1106을 호출하기만 하면 된다. 기존에 gpt-3.5-turbo를 사용하는 애플리케이션은 2023년 12월 11일 자동으로 새 모델로 업그레이드되며, 이전 모델들은 2024년 6월 13일까지 gpt-3.5-turbo-0613을 호출하여 계속 사용할 수 있다.


Assistants API, Retrieval 및 Code Interpreter

Assistants API: AI 비서 개발의 새로운 표준

Assistants API는 개발자들이 특정 목표를 가진 AI 비서를 구축할 수 있도록 설계되었다. 이 비서들은 복잡한 지시를 이해하고, 추가적인 지식을 활용하며, 필요한 모델과 도구를 호출하여 다양한 작업을 수행할 수 있다. 예를 들면, 자연어 기반의 데이터 분석 앱, 코딩 보조 도구, AI 기반 여행 계획기, 음성 제어 DJ, 스마트 비주얼 캔버스 등 다양한 용도로 활용할 수 있게 될 것이다.

Assistants API는 ‘무한히 긴 스레드’를 지원하여, 개발자들이 스레드 상태 관리를 OpenAI에 맡길 수 있게 해주며, 컨텍스트 윈도우 제약을 우회할 수 있도록 해준다. 즉, 개발자들은 새로운 메시지를 기존 스레드에 추가하기만 하면 될 것이다.

Retrieval: 지식의 확장

Retrieval 기능은 모델 외부의 지식, 예를 들어 독점적인 분야 데이터, 제품 정보 또는 사용자가 제공한 문서와 같은 정보를 비서에 통합하며, 이를 통해 개발자들은 자신의 문서에 대한 임베딩을 계산하고 저장하거나, 청킹 및 검색 알고리즘을 구현할 필요가 없어진다. Assistants API는 ChatGPT에서 지식 검색을 구축하는 데 얻은 경험을 바탕으로 최적의 검색 기술을 사용하도록 최적화한다.

Code Interpreter: 코딩 문제 해결의 새로운 도구

Code Interpreter는 파이썬 코드를 샌드박스 실행 환경에서 작성하고 실행할 수 있게 해준다. 이는 그래프 및 차트 생성, 다양한 데이터 및 형식을 가진 파일 처리 등을 가능하게 하며, 개발자들은 이제 AI 비서를 통해 반복적인 코드 작성을 수행하고 복잡한 코딩 및 수학 문제를 해결할 수 있다.


API에서 새로운 모달리티(modalities)

GPT-4 Turbo와 비전을 결합하여

GPT-4 Turbo는 이제 이미지를 입력으로 받아들일 수 있게 되어, 사진 설명 생성, 실제 이미지 분석, 그림이 포함된 문서 읽기 등의 사용이 가능하게 된다. 예를 들어, ‘BeMyEyes’ 같은 기술은 시각 장애가 있는 사람들이 제품을 식별하거나 상점에서 길을 찾는 데 도움을 주는 데 사용될 수 있다. 개발자들은 API에서 gpt-4-vision-preview를 사용하여 이 기능에 접근할 수 있으며, 비전 지원은 GPT-4 Turbo의 안정된 릴리스의 일부로 출시될 예정이다.

DALL·E 3의 창의성

DALL·E 3은 최근 ChatGPT Plus와 Enterprise 사용자들에게 출시되었으며, 개발자들은 이제 자신들의 앱과 제품에 DALL·E 3을 직접 통합할 수 있다. Snap, Coca-Cola, Shutterstock과 같은 회사들은 이미 DALL·E 3를 사용하여 고객과 캠페인을 위한 이미지와 디자인을 프로그래밍 방식으로 생성했으며, API는 내장된 모더레이션을 통해 개발자들이 애플리케이션을 오용으로부터 보호할 수 있도록 도와주게 될 것이다.

텍스트-투-스피치 (TTS)로 생생한 목소리 생성

개발자들은 이제 OpenAI를 통해 텍스트를 인간 같은 음질의 음성으로 변환할 수 있게 되었다. 새로운 TTS 모델은 선택할 수 있는 여섯 가지 사전 설정된 목소리와 tts-1 및 tts-1-hd의 두 가지 모델 변형을 제공하며, tts는 실시간 사용 사례에 최적화되어 있고, tts-1-hd는 품질에 최적화되어 있다고 밝혔다.


더 낮은 가격과 더 높은 비율 제한

더 낮아진 가격으로 더 많은 AI 활용 가능

OpenAI는 GPT-4 Turbo와 GPT-3.5 Turbo 모델의 가격을 크게 인하했다. 이제 GPT-4 Turbo 입력 토큰은 GPT-4의 3배 저렴한 $0.01(이후 모든 가격은 1,000 토큰당 가격이다)이며, 출력 토큰은 2배 저렴한 $0.03에 제공된다. GPT-3.5 Turbo는 이전 16K 모델에 비해 입력 토큰이 3배 저렴한 $0.001, 출력 토큰이 2배 저렴한 $0.002로 조정되었다. 이는 개발자들이 AI를 통해 더 복잡하고 다양한 작업을 더 낮은 비용으로 시도할 수 있도록 하여 활용성이 높아지게 되었다.

더 높아진 비율 제한으로 확장된 프로젝트 가능성

OpenAI는 모든 유료 GPT-4 고객에 대한 토큰당 분 당 한계를 두 배로 늘렸다. 이는 더 많은 사용자 요구에 부응하고, 대용량의 AI 작업을 더 빠르게 처리할 수 있도록 하여, 개발자들이 자신의 애플리케이션을 더욱 확장할 수 있도록 도와줄 것이다.


이번 OpenAI의 획기적인 업데이트로 AI의 잠재력을 탐구하는 여정에 한 걸음 더 나아갈 수 있을 것이다. GPT-4 Turbo와 개선된 GPT-3.5 Turbo의 도입은 모델의 성능을 향상시키고 가격을 낮추면서, 개발자들에게 더욱 강력한 도구를 제공할 것으로 예상하며, Assistants API, Retrieval, Code Interpreter와 같은 새로운 기능들은 단순한 명령 실행을 넘어서, AI가 더욱 복잡하고 창의적인 과제를 수행할 수 있도록 만들어줄 것이다. 또한, 새로운 모달리티들과 향상된 비율 제한은 사용자 경험을 한 차원 높여줄 것이다.

Leave a Reply

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다