Недавно компания AI21 Labs выпустила "Контекстные ответы", механизм ответа на вопросы для больших языковых моделей (LLM).

При подключении к LLM новый механизм позволяет пользователям загружать собственные библиотеки данных, чтобы ограничить выходные данные модели конкретной информацией.

Запуск ChatGPT и аналогичных продуктов искусственного интеллекта (ИИ) изменил парадигму индустрии ИИ, однако отсутствие надежности делает их внедрение сложной перспективой для многих предприятий.

Согласно исследованиям, сотрудники тратят на поиск информации почти половину своего рабочего дня. Это открывает широкие возможности для чат-ботов, способных выполнять поисковые функции, однако большинство чат-ботов не ориентированы на корпоративное использование.

Компания AI21 разработала Contextual Answers для устранения разрыва между чат-ботами, предназначенными для общего использования, и сервисами ответов на вопросы корпоративного уровня, предоставив пользователям возможность создания собственных библиотек данных и документов.

Как сообщается в блоге AI21, Contextual Answers позволяет пользователям направлять ответы ИИ без переобучения моделей, тем самым устраняя некоторые из самых серьезных препятствий для внедрения:

"Большинство предприятий с трудом внедряют [ИИ], ссылаясь на стоимость, сложность и отсутствие специализации моделей на организационных данных, что приводит к неправильным, "галлюцинированным" или несоответствующим контексту ответам."

Одна из нерешенных проблем, связанных с разработкой полезных ЛЛМ, таких как OpenAI`s ChatGPT или Google`s Bard, - научить их выражать недоверие.

Как правило, при запросе пользователя чат-бот выдает ответ, даже если в его массиве данных недостаточно информации для получения фактических данных. В таких случаях вместо того, чтобы выдать малодостоверный ответ типа "я не знаю", LLM часто придумывает информацию, не имеющую под собой никакой фактической основы.

Исследователи называют эти результаты "галлюцинациями", поскольку машины генерируют информацию, которой, казалось бы, не существует в их массивах данных, подобно людям, которые видят то, чего на самом деле нет.

Мы рады представить Contextual Answers, API-решение, в котором ответы основаны на знаниях организации, не оставляя места для галлюцинаций искусственного интеллекта.

➡️ https://t.co/LqlyBz6TYZ pic.Twitter.com/uBrXrngXhW

- AI21 Labs (@AI21Labs) 19 июля 2023 г.

Согласно A121, "Контекстные ответы" должны полностью устранить проблему галлюцинаций, выводя информацию только в том случае, если она соответствует предоставленной пользователем документации, либо не выводя ничего вообще.

В отраслях, где точность важнее автоматизации, таких как финансы и юриспруденция, применение генеративных систем с предварительным обучением (GPT) дало разные результаты.

Эксперты по-прежнему рекомендуют проявлять осторожность в финансовой сфере при использовании GPT-систем из-за их склонности к галлюцинациям и смешению информации, даже если они подключены к Интернету и способны давать ссылки на источники. А в юридической сфере юристу грозят штрафы и санкции за то, что он в ходе рассмотрения дела опирался на результаты, полученные с помощью ChatGPT.

Благодаря предварительной загрузке систем искусственного интеллекта соответствующими данными и вмешательству до того, как система начнет галлюцинировать нефактическую информацию, AI21, по-видимому, продемонстрировал решение проблемы галлюцинаций.

Это может привести к массовому внедрению, особенно в сфере финтеха, где традиционные финансовые организации неохотно принимают GPT-технологии, а криптовалютные и блокчейн-сообщества в лучшем случае с переменным успехом используют чат-боты.

Источник