Комментарии участников:
Интересна не сама нейросеть, а исходные, оцененные людьми на AMT тексты.
Имея оцененный корпус текстов — построить анализ не сложно, тут не только нейросеть, а скорее SVM даже лучше подойдет.
Порядок слов так-же легко учитывается 2-gramm и триграммами, когда в статистике учитывается не одно слово как один объект, а сразу несколько, предварительно выбрасывая по статистике ничего не значащие.
Имея оцененный корпус текстов — построить анализ не сложно, тут не только нейросеть, а скорее SVM даже лучше подойдет.
Порядок слов так-же легко учитывается 2-gramm и триграммами, когда в статистике учитывается не одно слово как один объект, а сразу несколько, предварительно выбрасывая по статистике ничего не значащие.
Хотя нет, там более глубокий анализ текста, чем просто N-gramm.
Но и такие проекты давно есть, например АОТ для русского языка, позволяет строить поверхностно семантический граф.
Нужно только «разукрасить» предикаты в этом графе по тональности.
Жёсткой логикой разукрасить — не получится, поэтому и нужны нейросети и SVM.
Но и такие проекты давно есть, например АОТ для русского языка, позволяет строить поверхностно семантический граф.
Нужно только «разукрасить» предикаты в этом графе по тональности.
Жёсткой логикой разукрасить — не получится, поэтому и нужны нейросети и SVM.
Спасибо, с удовольствием прочёл оба Ваших комментария. Жаль, что не могу составить Вам компанию: «язЫков я не знаю» ;) В смысле грамотёшки в данном вопросе маловато, поэтому и запостил эту новость. Надеюсь, что партнёр Вам всё же найдётся. Время есть.
Онлайновая демонстрация программы на произвольном текстеКомментарии к этой новости на Хабре — отдельный разговор.
Научная работа (pdf)
Набор данных для обучения нейросети (6 МБ)
Код программы (будет опубликован перед конференцией EMNLP, которая начинается 18 октября)