Российские ученые повысили точность ответов ИИ до 15%
Российские ученые из T-Bank AI Research создали методику обучения больших языковых моделей (LLM), повышающую до 15% точность ответов нейронных сетей (ИИ), говорится в сообщении Т-банк.
Это позволит улучшить качество ответов от виртуальных ассистентов и чат-ботов в различных сферах: от образования до медицины.
«Современные языковые модели, обучаясь на больших объемах данных, сталкиваются с проблемой потери качества при долгой тренировке. Исследователи предложили использовать новый метод на основе уже существующих методов Trust Region с небольшими изменениями, которые позволили влиять на обучение LLM. Новый подход позволяет улучшить качество ответов искусственного интеллекта по пяти различным показателям», — говорится в сообщении.
Методы Trust Region — это интеративные методы оптимизации, которые позволяют динамически расширять или сужать регион поиска лучшего решения поставленной задачи.
Отмечается, что тексты, сгенерированные моделью с применением нового метода, показали лучшие результаты по пяти ключевым параметрам: точность, связность, стиль, логика рассуждений и информативность. Также LLM меньше зацикливались на случайных ошибках и избегали выдачи странных текстов, которые могут появляться при обучении на узкопрофильную задачу.
Новый метод отличается простой реализацией и высокой совместимостью с уже существующими подходами. Его суть — периодическое обновление «настройки по умолчанию» языковой модели (нейросети). «Предложенный метод позволяет модели отмечать ключевые „ориентиры“ на своем пути, что помогает избежать отклонений и быстрее достичь целевой точки», — подчеркнули в компании.
Разработчики разместили описание метода в открытой библиотеке Т-банка Turbo Alignment для адаптации и обучения языковых моделей, а результаты исследования были вчера представлены на международной конференции по обучению представлениям (ICRL), которая проходит в Сингапуре
