GenAI крайне неточен для использования в бизнесе

Большие языковые модели (LLM) не всегда точны при работе с корпоративными данными и теряют прозрачность по мере увеличения масштабов. В исследовании Стэнфорда показано, что происхождение данных, потребляемых LLM, становится трудноотслеживаемым, что создаёт проблемы для компаний и законодателей. Стэнфорд разработал систему индекса прозрачности LLM (FMTI), оценив 10 моделей. Средний рейтинг составил 37%.

Исследование Kaspersky показало, что 95% руководителей полагают, что сотрудники используют инструменты генеративного ИИ, но масштабы и цели их применения неясны. 59% выразили обеспокоенность рисками для защиты данных и утраты контроля над бизнес-процессами.

В другом исследовании LLM, подключенные к базам данных SQL, правильно отвечали лишь на 22% базовых запросов и 0% средних и экспертных. Это объясняется отсутствием у LLM бизнес-контекста. Способ повышения точности - использование меньших отраслевых моделей (ILM), обученных на специфических данных. Компаниям также следует обеспечить надзор за моделями и привести базы данных к виду, пригодному для ИИ.

В целом, многое ещё предстоит сделать для того, чтобы потенциал LLM был раскрыт на корпоративных данных без риска неточностей и утечек информации. Прозрачность формирования и функционирования моделей является в этом ключевым фактором.