Российские ученые повысили точность ответов ИИ до 15%

отметили
13
человека

Российские ученые из T-Bank AI Research создали методику обучения больших языковых моделей (LLM), повышающую до 15% точность ответов нейронных сетей (ИИ), говорится в сообщении Т-банк.

Это позволит улучшить качество ответов от виртуальных ассистентов и чат-ботов в различных сферах: от образования до медицины.

«Современные языковые модели, обучаясь на больших объемах данных, сталкиваются с проблемой потери качества при долгой тренировке. Исследователи предложили использовать новый метод на основе уже существующих методов Trust Region с небольшими изменениями, которые позволили влиять на обучение LLM. Новый подход позволяет улучшить качество ответов искусственного интеллекта по пяти различным показателям», — говорится в сообщении.

Методы Trust Region — это интеративные методы оптимизации, которые позволяют динамически расширять или сужать регион поиска лучшего решения поставленной задачи.

Отмечается, что тексты, сгенерированные моделью с применением нового метода, показали лучшие результаты по пяти ключевым параметрам: точность, связность, стиль, логика рассуждений и информативность. Также LLM меньше зацикливались на случайных ошибках и избегали выдачи странных текстов, которые могут появляться при обучении на узкопрофильную задачу.

Новый метод отличается простой реализацией и высокой совместимостью с уже существующими подходами. Его суть — периодическое обновление «настройки по умолчанию» языковой модели (нейросети). «Предложенный метод позволяет модели отмечать ключевые „ориентиры“ на своем пути, что помогает избежать отклонений и быстрее достичь целевой точки», — подчеркнули в компании.

Разработчики разместили описание метода в открытой библиотеке Т-банка Turbo Alignment для адаптации и обучения языковых моделей, а результаты исследования были вчера представлены на международной конференции по обучению представлениям (ICRL), которая проходит в Сингапуре 

Добавил precedent precedent 6 часов 5 минут назад
Комментарии участников:
Ни одного комментария пока не добавлено


Войдите или станьте участником, чтобы комментировать