Skip to main content

AI21 Labs недавно запустила «Contextual Answers», механизм ответов на вопросы для больших языковых моделей (LLM).

При подключении к LLM новый движок позволяет пользователям загружать свои собственные библиотеки данных, чтобы ограничить выходные данные модели определенной информацией.

Запуск ChatGPT и аналогичных продуктов искусственного интеллекта (ИИ) изменил парадигму индустрии ИИ, но отсутствие доверия затрудняет внедрение для многих предприятий.

Согласно исследованиям, сотрудники тратят почти половину своего рабочего дня на поиск информации. Это открывает огромные возможности для чат-ботов, способных выполнять поисковые функции; однако большинство чат-ботов не предназначены для предприятий.

AI21 разработала контекстные ответы, чтобы устранить разрыв между чат-ботами, предназначенными для общего использования, и службами ответов на вопросы корпоративного уровня, предоставив пользователям возможность конвейеризировать свои собственные библиотеки данных и документов.

Согласно сообщению в блоге AI21, Contextual Answers позволяет пользователям управлять ответами AI без переобучения моделей, тем самым устраняя некоторые из самых больших препятствий для внедрения:

«Большинство предприятий изо всех сил пытаются принять [AI]ссылаясь на стоимость, сложность и отсутствие специализации моделей в их организационных данных, что приводит к неправильным, «галлюцинирующим» или неподходящим для контекста ответам».

Одной из нерешенных задач, связанных с разработкой полезных LLM, таких как ChatGPT от OpenAI или Bard от Google, является научить их выражать неуверенность.

Как правило, когда пользователь запрашивает чат-бота, он выводит ответ, даже если в его наборе данных недостаточно информации для предоставления фактической информации. В этих случаях вместо того, чтобы давать неуверенный ответ, такой как «я не знаю», LLM часто выдумывают информацию без какой-либо фактической основы.

Исследователи называют эти выходные данные «галлюцинациями», потому что машины генерируют информацию, которой, по-видимому, нет в их наборах данных, как люди, которые видят вещи, которых на самом деле нет.

Согласно A121, контекстные ответы должны полностью смягчить проблему галлюцинаций, либо выводя информацию только тогда, когда она имеет отношение к предоставленной пользователем документации, либо вообще ничего не выводя.

В секторах, где точность важнее автоматизации, таких как финансы и юриспруденция, появление генеративных систем с предварительно обученным трансформатором (GPT) дало разные результаты.

Эксперты по-прежнему рекомендуют проявлять осторожность в финансах при использовании систем GPT из-за их склонности к галлюцинациям или смешиванию информации, даже при подключении к Интернету и возможности ссылки на источники. А в юридическом секторе юрист теперь сталкивается со штрафами и санкциями после того, как полагался на результаты, созданные ChatGPT во время дела.

Предварительно загружая системы ИИ соответствующими данными и вмешиваясь до того, как система сможет галлюцинировать нереальную информацию, AI21, по-видимому, продемонстрировал смягчение проблемы галлюцинаций.

Это может привести к массовому внедрению, особенно на арене финансовых технологий, где традиционные финансовые учреждения неохотно используют технологию GPT, а сообщества криптовалют и блокчейнов в лучшем случае добились неоднозначного успеха в использовании чат-ботов.

Связанный: OpenAI запускает «пользовательские инструкции» для ChatGPT, чтобы пользователям не приходилось повторять себя в каждом приглашении


Источник: Сointеlеgrаph

Оставить комментарий