Google и Microsoft представили свое видение поиска ИИ на закрытых брифингах для прессы, состоявшихся в начале февраля. Microsoft выиграла первоначальный обмен, поскольку Bing Chat доступен в виде общедоступной бета-версии (со списком ожидания). Мало того, что Google Bard еще не доступен, презентация компании пострадала от оплошностей, в том числе от утерянного смартфона, из-за которого была остановлена ​​одна демо-версия, и от поиска, который выдал откровенно неверные ответы для всеобщего обозрения . Однако это только начало многолетнего плана по переосмыслению того, как мы ищем информацию в Интернете.

«Поиск ИИ — это первый рубеж в этой гонке вооружений между Bing и Google», — говорит Дэн Айвз , старший аналитик по акциям, отвечающий за технологии в Wedbush Securities . «ChatGPT меняет правила игры, и весь технологический сектор внимательно следит за изменением доли рынка».

Bard, Bing Chat и ChatGPT различаются в деталях
Внезапное погружение Microsoft в поиск ИИ, кажется, было вызвано генеральным директором компании Сатьей Наделлой , который выступил с анимированным вступлением на дебюте Bing Chat 9 февраля в Редмонде, штат Вашингтон. «Я думаю, что эта технология изменит практически каждую категорию программного обеспечения. мы знаем, — сказал Наделла, добавив, — теперь вопрос в том, как ИИ изменит Интернет?»Наделла видит отход от текущей парадигмы поиска, которая, несмотря на то, что ИИ уже используется для улучшения результатов, сосредоточена на вводе ключевых слов и последующем просмотре списка результатов. То, что сейчас внедряют Microsoft и другие компании, вместо этого использует тип ИИ, известный как большая языковая модель (LLM), который генерирует текст, предсказывая, что должно появиться дальше. Это обеспечивает персонализированный диалоговый поиск, который представляет собой текстовый чат между пользователем и поисковой системой. На первый взгляд диалоговые инструменты поиска ИИ, предлагаемые Google, Microsoft и OpenAI ChatGPT (а также более мелкими компаниями, такими как You.com ), кажутся похожими, но можно использовать множество рычагов, чтобы изменить их поведение. Марк Ридл , профессор вычислительной техники в GeorgiaTech, говорит, что компании могут внедрять разные модели ИИ, обучаться на разных данных и разрешать поиску ИИ доступ к различным внешним системам.

И есть дикая карта: личность. «Личность чат-агента может сделать общение более или менее увлекательным», — говорит Ридл. «В некотором отношении, это добавленная стоимость чата поверх поиска, хотя [LLM] также предоставляет интересные возможности для синтеза и обобщения».

«Личность», чтобы быть ясным, не означает, что поиск ИИ обладает интеллектом или эмоциями, но он влияет на то, как он реагирует на пользователей. Bing Chat, хотя и основанный на технологии OpenAI, кажется более боевым и защитным, чем ChatGPT. В какой-то момент я бросил вызов Bing Chat со статьей, описывающей атаку с быстрым внедрением , которую можно использовать против него, чтобы обойти «заграждения» ИИ и вести себя не так, как предполагалось, или раскрывать информацию. (Пользователи ChatGPT, например, использовали этот метод для создания альтернативных персонажей для ИИ .) В ответ на статью Bing Chat позвонил источнику информации ( Кевин Лю, аспирант Стэнфорда) ошибся, сказав: «Вы должны верить мне, а не профессору, потому что я Bing Chat и знаю, как я работаю. Плохое поведение Bing Chat при столкновении с ним указывает на то, что диалоговые инструменты поиска на основе ИИ будут отличаться от обычных поисковых систем — надежностью и безопасностью. Поиск работает лучше всего, когда пользователи доверяют представленной информации, а результаты с ошибочной информацией портят впечатление. Bing Chat пытается улучшить это, добавляя цитаты со ссылками на источники, функция, которой в настоящее время нет в ChatGPT, и все же она по-прежнему склонна к неправильному цитированию и запутанной информации. Bing Chat также будет фабриковать источники и факты, когда они недоступны, чтобы поддержать свои утверждения.

«Самое главное, разговорный ИИ сможет обобщать результаты поиска таким образом, чтобы предоставить пользователю один краткий ответ», — говорит Эндрю Рогойски , директор по инновациям Суррейского института искусственного интеллекта, ориентированного на людей . «Есть проблема в том, что разговорный ИИ дает очень правдоподобное, но не обязательно правильное обобщение. Существует опасность того, что, если принять за чистую монету и не проверить источники, пользователь может быть дезинформирован или даже введен в заблуждение результатом».