1 марта 2023 года OpenAI сделала объявление, которого с нетерпением ждали разработчики: компания запустила ChatGPT API , предоставив сторонним разработчикам доступ к модели искусственного интеллекта, лежащей в основе ChatGPT и Microsoft Bing Chat .

Сам по себе доступ заманчив, но у OpenAI был козырь в рукаве — цена. Доступ к интерфейсу прикладного программирования стоит всего 0,002 доллара США за 1000 токенов (примерно 750 слов на английском языке). При такой ставке за один доллар можно купить достаточно мощности, чтобы обработать 375 000 слов английского текста.

«GPT 3.5 Turbo — это огромное улучшение по сравнению с существующим GPT-3 . Компания крайне редко выпускает новую версию своего API, которая в 10 раз дешевле и в 5 раз быстрее», — говорит Хассан Эль Мгари , старший защитник разработчиков в Vercel . «Это 50-кратное улучшение, неслыханное».

API ChatGPT невероятно дешев
API ChatGPT предоставляет доступ не к самому ChatGPT, а к модели, которую он использует: GPT 3.5 Turbo. Хотя точные различия между GPT 3.5 и GPT 3.5 Turbo неясны (OpenAI, вопреки своему названию, не открывает свои модели), его использование в ChatGPT предполагает, что эта модель намного эффективнее, чем те, которые были доступны ранее.

Эта эффективность позволяет OpenAI меньше взимать плату за доступ. Повышенная доступность, конечно, всегда является преимуществом для разработчиков, но масштаб снижения цены GPT 3.5 Turbo по сравнению с его предшественником — это больше, чем приятная скидка. Это открывает возможности для добавления функций ИИ в приложения, которые раньше даже не могли оправдать затраты.

«Компании теперь могут использовать ИИ даже для бесплатных продуктов, если они смогут компенсировать некоторые затраты. Ранее с GPT-3 компаниям, которые использовали API, приходилось быть очень осторожными, предоставляя доступ неплательщикам, поскольку это было очень дорого в расчете на поколение», — говорит Эль Мгари. Возможности GPT 3.5 Turbo не ограничиваются разработчиками, которые хотят добавить чат-бота с искусственным интеллектом в свое приложение или сервис. В сообщениях в блоге OpenAI утверждается, что низкая стоимость GPT 3.5 Turbo и улучшенная производительность делают его подходящим для самых разных применений, включая многие, которые ранее были доступны в GPT 3.5.

«Из-за роста популярности ChatGPT из-за его формата чата у людей сложилось предубеждение, что API ChatGPT можно использовать только в этом обычном формате», — говорит Чанёль Чой, генеральный директор и соучредитель Publishd. «OpenAI теперь хочет, чтобы его клиенты знали, что API ChatGPT (gpt-3.5-turbo) можно использовать в менее повседневном, не чатовом формате».

Это связано с двумя другими объявлениями, сделанными вместе с выпуском ИИ ChatGPT — более длительными ограничениями контекста и возможностью закреплять снимок модели.

Более длинные ограничения контекста позволяют разработчикам обрабатывать больше токенов, что на практике приводит к большему объему текста. Кайл Шеннон , генеральный директор и основатель Storyvine , говорит, что лучшие планы выделенных серверов OpenAI могут обрабатывать до 32 000 токенов, что помогает разработчикам обрабатывать гораздо большие фрагменты текста. Между тем моментальный снимок модели позволяет разработчикам заблокировать версию модели для повышения согласованности. «Мы перейдем от «вы можете творить чудеса с некоторыми документами» к «совершать чудеса с любыми данными в любой конфигурации» в течение трех лет, — говорит Шеннон.

Споры не остановили энтузиазм разработчиков
Объявление OpenAI было омрачено, казалось бы, не имеющей отношения к делу историей: оспариванием раздела 230 в Верховном суде Соединенных Штатов. Судья Нил Горсач вкратце размышлял о том, может ли контент, созданный ИИ, быть включен в защиту Раздела 230 .

«Искусственный интеллект порождает поэзию, — сказал Горсуч. «Сегодня это порождает полемику, связанную с контентом, выходящим за рамки выбора, анализа или переваривания контента. И это не защищено. Предположим, что это правильно».

Аргумент Горсача был гипотетическим, но, вероятно, будет проверен в суде. В настоящее время неясно, могут ли разработчики, которые создают приложения, использующие генеративный ИИ, или компании, создающие модели, которые используют разработчики (например, OpenAI), нести ответственность за то, что создает ИИ. «Вопрос ответственности — очень важный вопрос, который необходимо тщательно продумать, и со временем разработчики придут к решениям», — говорит Чой. Он считает, что компаниям, работающим в юридической, финансовой и медицинской областях, лучше подходят модели расширенного поиска (RALM) , которые обусловливают модель базовым корпусом. Это повышает точность, чтобы гарантировать правильность важных деталей, таких как академические цитаты. Компания Чоя использует этот метод для Publishd , помощника по письму с искусственным интеллектом, разработанного для использования учеными и исследователями. Publishd в настоящее время находится в стадии закрытого бета-тестирования.

Однако этот подход применим не ко всем областям, и, учитывая темпы роста ChatGPT, многие разработчики продвигаются вперед с головокружительной скоростью. Сюда входят Instacart, Shopify и Snap, все из которых недавно анонсировали функции, основанные на ChatGPT API. Разработчики хорошо осведомлены о юридических проблемах, с которыми может столкнуться ИИ, но бездействие рассматривается как более серьезная угроза.

«Каждой отрасли придется столкнуться с этой реальностью раньше, чем, я думаю, кто-либо осознает, поэтому я думаю, что существует возможная ответственность и риск с точки зрения закона и соответствия, но я думаю, что больший риск — безусловно — это риск не бросаться на дно раньше, чем вы считаете это разумным», — говорит Шеннон.