Машинное обучение и нейросети позволили сократить время моделирования крупномасштабной структуры Вселенной в 1000 раз

отметили
44
человека
в архиве

По мере того, как телескопы стали более совершенными, данные наблюдений за галактиками, квазарами и материей в межгалактическом пространстве стали более подробными и способными охватить все большие диапазон эпох Вселенной. Но ничего не возникает из практических наблюдений — для начала нужна гипотеза. Космологические симуляции — важная часть исследования природы Вселенной, та самая гипотеза, рождаемая в ходе наблюдения за моделью. Моделирование формирования галактик помогает предсказать поведение вселенной и ее компонентов в различных сценариях и решить проблемы темной материи как одну из задач современной космологии.

Проблема заключается в том, что любое моделирование ограничено конечными вычислительными ресурсами — исследователям приходится находить компромисс между степенью разрешения (количеством частиц) в модели и размерами пространства (box), в котором будет совершаться моделирование. Для ее решения профессорами университета Карнеги-Меллона, института Флэтайрон и Калифорнийского университета была создана программа, которая в связке с нейронными сетями и применением технологии Deep Learning на базе моделей низкого разрешения (LR) путем предсказания того, как гравитация влияет на частицы с течением времени, создает модели сверхвысокого разрешения (SR). Обучается она этому по уже имеющимся моделям высокого разрешения (HR). В результате создается SR-модель с количеством частиц, в 512 раз превышающим количество частиц в LR-версии модели, предсказывая их смещение от начальных позиций. Кроме того, процесс генерации является стохастическим, что позволяет исследовать мелкомасштабные моделирования.

Любой вопрос или замечания Вы можете написать в комментариях. Также я открыт для личного диалога в телеграме или даже беседы в нашем чате. А еще у меня есть телеграм-канал о космологии.

источник: hsto.org

Двухмерная проекция трех моделей поведения темной материи на z = 0: с низким, высоким и сверхвысоким разрешением (LR, HR, SR). Синим показано сглаженное поле плотности частиц темной материи. Оранжевым выделены частицы гало. Масштаб сверху вниз уменьшается от 100 условных мегапарсек до 10 (см. слева по вертикали). Credit: Li & Ni et al.

Подход команды исследователей использует DL-класс алгоритмов машинного обучения с участием нейронных сетей, что позволило предсказывать свойства галактик намного быстрее, чем в существующих моделях. В качестве условия для модели вводятся необходимые физические описания поведения частицы в гравитационном поле, а также смещение частиц в моделировании задачи N-тел. Для создания модели с высоким разрешением используется специфический подход, называемый генеративно-состязательной сетью, которая противопоставляет две нейросети друг другу. Одна сеть является LR-моделью, другая сеть — будущая SR-модель, пытается отличить эти модели от моделей, сделанных обычными методами. Со временем обе нейросети улучшаются до тех пор, пока не создадутся процедуры быстрого моделирования, которые будут создавать такую же модель, как модель сверхвысокого разрешения, созданная традиционными медленными методами. В качестве параметров сравнения нейросети используют спектр мощности плотности материи и функцию массы гало галактик.

Обученная система, как упоминалось ранее, создает Super-Resolution-модель с количеством частиц, превышающим в 512 раз количество частиц Low-Resolution-модели. Для области 500 млн световых лет это около 134 миллионов частиц, которые теперь моделируются за 36 минут вместо обычных 560 часов. А за 16 часов новый алгоритм сможет смоделировать поведение пространства со стороной 50 млрд световых лет и количеством частиц, достигающим 13,4 млрд. Несмотря на то, что нейросети обучались улучшению разрешения модели по небольшим участкам пространства, они отлично справились с моделированием крупномасштабной структуры — полученные данные хорошо сочетаются с наблюдениями и прошлыми моделированиями. Под вопросом остаются мелкомасштабные явления, такие как звездообразование, сверхновые звезд и эффекты черных дыр. Данный алгоритм пока заточен лишь под гравитационное взаимодействие материи, но, как говорит команда исследователей, она уже работает над созданием алгоритма для моделирования других процессов, происходящих во Вселенной.

источник: hsto.org

Иллюстрация SR-модели (с приведенными в рамке сравнениями с моделированием структуры на малом масштабе) для z = 2 на условном расстоянии в 1 гигапарсек. Количество частиц в модели достигает 135 млрд штук. Credit: Li & Ni et al.

Исследования проводились на суперкомпьютере Frontera в Техасском вычислительном центре (TACC) – самом быстром академическом суперкомпьютере в мире.

Финансирование проводилось Институтом искусственного интеллекта и НАСА.

Препринт работы от 3 мая доступен на arXiv.org по ссылке.

Подробнее о моделировании физических процессов в межгалактических масштабах написано здесь и здесь.

Добавил suare suare 12 Мая
Дополнения:

Крупномасштабная структура Вселенной является одной из самых обсуждаемых тем в современной астрофизике. Непосредственные наблюдения далеких объектов затруднены из-за поглощения в плоскости Млечного Пути, поэтому одним из основных методов исследования стало моделирование. Такой способ сопряжен сразу с несколькими проблемами: огромный диапазон масштабов, необходимость учета различных процессов, невероятно большое количество точек в симуляции. 29 июля 2014 года была опубликована первая статья о новом моделировании EAGLE. ПостНаука попросила астрофизика Сергея Пилипенко объяснить сложность задачи и последние достижения в этой области.
 
Одна из задач современной космологии — объяснить наблюдаемую картину многообразия галактик и их эволюцию. На качественном уровне физические процессы, происходящие в галактиках, сейчас известны, и усилия ученых направлены на следующий шаг — получение количественных предсказаний. Это позволит в конечном итоге ответить на ряд фундаментальных вопросов, например, о свойствах темной материи. Поскольку темной материи во Вселенной примерно в пять раз больше, чем обыкновенной, образование структур, в том числе и галактик, должно управляться темной материей. Но для того, чтобы выделить наблюдаемые проявления темной материи, необходимо разобраться с поведением обычной материи.
 
На масштабах нескольких миллионов световых лет влияние обычной материи можно не учитывать, поскольку звуковые волны в газе не успели распространиться на такие расстояния за время жизни Вселенной, и поэтому обычная материя эффективно ведет себя так же, как и темная: она подвержена одной только силе гравитации, про давление газа можно забыть. Этот факт позволяет сравнительно просто моделировать эволюцию крупномасштабной структуры Вселенной. Подобные численные модели, содержащие только темную или пылевидную материю, начали развиваться с 1980-х, и на сегодняшний день они с хорошей точностью воспроизводят крупномасштабную структуру распределения галактик и являются мощным и необходимым инструментом при проведении прецизионных космологических тестов.
 
Моделирование темной материи происходит в виртуальном кубе, имеющем размер, как правило, в сотни миллионов световых лет. Этот куб почти равномерно заполняют пробными частицами — телами, с помощью которых выполняется моделирование. «Почти равномерно" потому, что во Вселенной с самого начала присутствовали малые неоднородности, из которых и возникла вся наблюдаемая структура. Затем эти частицы начинают жить под действием силы тяготения (решается задача N тел). Вылетевшие за границу куба частицы переносятся на противоположную грань, сила тяготения тоже распространяется с переносом, благодаря чему этот куб становится как бы бесконечным, как Вселенная.
 
Одна из самых известных численных моделей такого типа — Millenium, имеющая размер куба более 1.5 млрд световых лет и около 10 миллиардов частиц. Масса одной пробной частицы при этом такова, что галактики вроде нашей состоят всего лишь из нескольких сотен частиц. Тем не менее этого достаточно, чтобы изучать распределение этих галактик в пространстве. В последующие годы было выполнено также несколько моделей еще большего объема: Horizon Run с размером стороны куба в 4 раза больше, чем Millenium, и Dark Sky с размером в 16 раз больше Millenium. Последняя модель покрывает объем, примерно соответствующий видимой области Вселенной.
 
Эти и подобные модели сыграли ключевую роль в двух проектах по проверке общепризнанной сейчас модели Лямбда-CDM (Вселенная, содержащая около 70% темной энергии, 25% темной материи и 5% обычной материи). Первый — подсчет количества скоплений галактик и его эволюции со временем (работа Vikhlinin и др.), которое зависит от доли и свойств темной энергии. Связь между количеством скоплений и свойствами темной энергии как раз и была изучена посредством численного моделирования. Второй проект — это обзор неба BOSS, использующий одну особенность в распределении галактик для изучения космологического расширения и, опять же, измерения свойств темной энергии. В этом проекте применение численных моделей позволило правильно спланировать обзор (его объем и глубину), чтобы достигнуть необходимой точности.
 
При уменьшении масштабов соответствие наблюдениям численных моделей с одной только темной материей теряется. В частности, такие модели предсказывают в несколько раз больше карликовых галактик-спутников, чем наблюдается у Млечного Пути. Очевидно, на масштабах распространения ударных волн от сверхновых, выброса газа джетами активных ядер и галактическим ветром обыкновенную материю уже нельзя считать пылевидной, и необходимо учитывать гидродинамику, остывание и нагревание газа излучением и большое количество других физических процессов. Здесь и начинаются большие трудности: многие процессы происходят на столь малых масштабах, что современным компьютерам не под силу охватить требуемый диапазон масштабов. Например, газ для образования одной звезды собирается из области размером от десятков до сотен световых лет, а для воспроизведения крупномасштабного распределения галактик необходима область размером как минимум в 300 млн световых лет. Это означает, что даже если выполнять моделирование с (1 000 000)^3 = 10^18 частиц, то на одну звезду в галактике будет приходиться 1 частица, чего, очевидно, недостаточно для учета процессов, происходящих при образовании звезд. Современные суперкомпьютеры способны моделировать пока только 10^12 (1 триллион) пробных частиц.
 
Кроме того, при сжатии первичного облака газа до состояния звезды плотность вещества повышается на 20–24 порядка, и моделирование гидродинамики в столь широком диапазоне плотностей тоже представляет сложнейшую численную проблему. Стоит отметить, что попытки смоделировать образование отдельной звезды, начиная с области размером в несколько световых лет, уже делаются, и некоторые успехи при этом достигнуты. Однако ряд физических процессов, например образование пыли, происходят на микронных масштабах, и эти процессы невозможно смоделировать в кубе размером в несколько световых лет.
Из сказанного выше следует, что моделирование образования галактик из первых принципов и с «честным» учетом всех законов физики на современном этапе развития науки невозможно, и необходимо делать некоторые упрощающие предположения. Например, можно разбить модельный куб на решетку из ячеек и считать, что при достижении в данной ячейке некоторой плотности и температуры газа часть газа (т. е. используемых для его моделирования пробных частиц) мгновенно превратится в звезды. Подобный подход носит название субрешеточной физики. При этом встает вопрос о выборе параметров, в данном случае пороговых значений и доли газа, переходящего в звезды.
 
Именно к такому классу численных моделей и относятся проекты EAGLE и Illustris. Данные проекты пытаются учесть все современные достижения в области моделирования и предлагают космологически значимый объем (размер куба 300 млн световых лет) и широкий диапазон масс галактик — от карликов до галактик типа нашей. Первая статья, относящаяся к проекту EAGLE, посвящена важнейшим деталям модели, которые в первую очередь интересуют научное сообщество, когда речь идет о применении субрешеточной физики: процедуре калибровки (выбора параметров) и ограничениям применяемого подхода.
 
Первые результаты проекта EAGLE показали, что авторам удалось воспроизвести известные корреляции между различными свойствами галактик, например соотношение Талли-Фишера между светимостью галактики и скоростью вращения диска. Также модель правильно воспроизводит соотношение между количеством дисковых и эллиптических галактик. Все это является важным достижением и позволяет надеяться, что модели из проектов EAGLE и Illustris позволят лучше понять галактики, а также получить ценные сведения о свойствах темной материи.

 

Если бы вы могли наблюдать за расширением Вселенной после Большого Взрыва с космического корабля, это было бы похоже на симуляцию EAGLE университета Дарема [1]. Вы бы наблюдали за распространением космической пыли по холодным и темным пространствам космоса и за вспышками яркого розового газа, образующими вращающиеся спиральные галактики. Чем дальше вы бы путешествовали, тем больше галактик вы бы увидели — много тысяч галактик в бесконечной виртуальной вселенной.

Проект EAGLE (Evolution and Assembly of GaLaxies and their Environments — эволюция и возникновение галактик и их окружения) имеет экстраординарные масштабы. Проект возглавляет Ричард Боуэр (Richard Bower), профессор космологии в институте вычислительной космологии университета Дарема.

«Моя роль… — говорит Боуэр с улыбкой. — Я люблю называть это сотворением Вселенных. Однако цель нашего проекта EAGLE — создавать расчеты, генерирующие искусственные модели, которые можно сравнивать с тем, что астрономы видят в телескопах. Он помогает понять, как образовалась реальная Вселенная и галактики, такие как наш Млечный Путь».

Это смелое начинание и моделировать Вселенную очевидно легче в теории, чем на практике. Как сказал Дуглас Адамс в своем знаменитом Путеводителе по Галактике для автостопщиков: «Космос велик. Он просто огромен. Вы даже не поверите, насколько он умопомрачительно громаден». Этот гигантский масштаб очень затрудняет любые попытки моделировать его с какими-либо реальными деталями.

ОСНОВНЫЕ ВЫВОДЫ

  • Почему Вселенная такая, какая она есть? Из чего она сделана? Теории наблюдений нельзя тестировать в лаборатории, и поэтому для работы с крупными космологическими концепциями требуется подход на основе виртуализации.

  • Проект EAGLE университета Дарема позволяет моделировать галактики в космологических объемах с измерением в 100 мегапарсек по одной стороне (более 300 млн световых лет по диагонали). Однако этого недостаточно.

  • Используя новое высокопроизводительное аппаратное обеспечение, в том числе масштабируемые процессоры Intel® Xeon®, университет Дарема модернизировал свой суперкомпьютерный кластер, чтобы моделировать Вселенную с большей детализацией.

«Насколько велика наша Вселенная? Мы не знаем. — признает профессор Боуэр. — Однако это связано с тем, что наше поле зрения ограничено. Даже самые большие и технически продвинутые телескопы позволяют смотреть только на 14 миллиардов лет, и этому связано с тем, что возраст Вселенной конечен. У нее было начало, Большой Взрыв, и свет, появившийся при Большом Взрыве, может пройти за 14 миллиардов лет только ограниченное расстояние. Насколько мы знаем, Вселенная может быть намного больше».

Боуэру и его команде в университете Дарема хотелось бы создать единую симуляцию, содержащую всю доступную для наблюдения Вселенную. Однако с точки зрения технологий это пока нельзя реализовать на практике. Первая симуляция EAGLE (впервые запущенная в 2015 году) стала одной из крупнейших космологических гидродинамических симуляций, в которой использовалось почти 7 миллиардов частиц для моделирования межгалактической физики. Для моделирования космологического объема с длиной стороны в 100 мегапарсеков (более 300 млн световых лет) потребовалось 50 дней компьютерного времени на 4000 вычислительных ядер.

Когда мы начинали проект EAGLE, некоторые говорили, что это технически невозможно. Им пришлось признать свою неправоту.

Хотя это лишь небольшая часть оцениваемого размера реальной Вселенной в 14 миллиардов световых лет, размер симуляции достаточно большой, чтобы вместить 10000 галактик. Используя наблюдаемые свойства реальных галактик (например, размер, массу и цвета) и законы физики, проект EAGLE позволяет получить искусственный кусочек Вселенной, статистически отражающий большое целое. Тогда его можно будет использовать для получения ответов на самые большие вопросы космологии: «Почему галактики выглядят именно так?» или «Из чего состоит Вселенная?»

Проект EAGLE уже изменяет наше понимание структуры Вселенной и приносит удивительные новые знания. «Мы установили для начала симуляции момент сразу после Большого Взрыва и провели ее до сегодняшнего дня, чтобы посмотреть, будет ли Вселенная выглядеть так, как мы ее наблюдаем с помощью телескопов. Вначале нам было сложно получить реалистичный результат. Однако постепенно мы поняли, что нам не хватает ключевого ингредиента — черных дыр».

Похоже, что черные дыры сыграли ключевую роль в формировании Вселенной, которую мы наблюдаем сегодня. Галактики бывают самых разных типов, что определил американский астроном Эдвин Хаббл в 1926 году. Его схема классификации («Последовательность Хаббла») включает спиральные галактики с одной стороны и эллиптические галактики с другой. Спиральные галактики имеют красивые диски, и в них много новых молодых звезд. Эллиптические галактики имеют форму сплюснутого мяча, и их звезды намного старше.

«Чтобы наша симуляция Вселенной соответствовала модели Хаббла, нам нужно было включить в расчеты черные дыры, — говорит Боуэр. Когда галактики достигают размера Млечного Пути, их черные дыры становятся очень маленькими. Однако затем черные дыры начинают очень быстро расти, и это преобразует внешний вид галактики, и в ней прекращается образование новых звезд. Существующие звезды впоследствии перераспределяются в эллиптическую форму. Это одно из самых замечательных открытий, которые мы сделали в ходе симуляции, и оно дало хорошее описание того, что мы наблюдаем в реальной Вселенной».

Недавно университет Дарема модернизировал свою суперкомпьютерную систему для запуска следующей итерации проекта EAGLE. Благодаря переписанному коду и новому аппаратному решению на базе новейших масштабируемых процессоров Intel® Xeon® Боуэр и его команда смогут смоделировать участок Вселенной в 30 раз больше, чем в симуляции 2015 года, и, что очень важно, содержащий больше точек данных. Увеличение количества точек данных повышает детализацию и вероятность встретить редкие небесные объекты, например квазары.

«Нам было важно иметь мощное и надежное аппаратное обеспечение, — говорит Боуэр. — Нам нужно было добавить очень много физических законов, чтобы смоделировать реальную вселенную — формирование галактик, их движение, силу притяжения, поток времени и эволюцию звезд… Это потрясающий ресурс, помогающий понять, что мы видим в телескоп, протестировать теорию посредством наблюдения. Однако это очень повышает нагрузку на наших инженеров».

Поэтому университету Дарема требовалась существенная модернизация аппаратного обеспечения. Как говорит Боуэр, по сравнению с объемом 300 миллионов световых лет, симуляция которого была создана в 2015 году, следующая симуляция будет иметь объем около миллиарда световых лет, то есть примерно десятую часть видимой Вселенной.

В углу Центра Фундаментальной Физики Огдена, где работают Боуэр и его команда, находится Создатель Вселенных. Он похож на игровой автомат 1980-х годов со стеклянной пирамидой в центре, где плавает изображение виртуальной Вселенной. Вы можете повернуть ручку, чтобы увеличить или уменьшить количество темной материи. Вы можете потянуть рычаг, чтобы настроить «мощность черных дыр». Это упрощенная демонстрация вывода EAGLE, но простота не делает ее менее впечатляющей.

«Когда мы начали этот проект, люди говорили, что это технически невозможно, — вспоминает профессор Бауэр. — Они говорили, что такие вычисления в большом масштабе не сработают, и что галактики будут выглядеть не так, как в реальной Вселенной. Однако мы много работали, чтобы опровергнуть их убеждения и добиться оптимального баланса вычислительной мощности и пропускной способности. Мы выяснили, что аппаратное обеспечение Intel дает нам то, что нужно.

Его работа просто поразительна. Больше всего мне понравилось создание фильма, когда вы стоите в начале Вселенной и летите в своем космическом корабле, а вокруг вас формируется Вселенная и конденсируются газовые облака, образуя звезды. Вы летите и летите, а в конце фильма прилетаете в нашу собственную галактику — Млечный Путь».

 

Добавил suare suare 12 Мая
Вы интересуетесь машинным обучением, машинным интеллектом и нейросетями?
suare Всего лишь как любитель, дилетант. (1)
Комментарии участников:
unknown1
0
unknown1, 12 Мая , url

Надо понимать что нейронная сеть — это вероятностная модель. Аппроксимация некоторой функции. А так как аппроксимация это лишь приближение (аналогия) простой функции к значениям сложной, то этим и обеспечивается ускорение вычислений.

Но всякая аналогия (приближение) всегда ложна. Она не откроет новых знаний, и не предоставит точных знаний уже известных. А посему значение и смысл данной работы мне не ясен.

suare
+1
suare, 12 Мая , url

Ответ на Ваши вопросы я размещу в «Дополнениях» к новости, развернув те ссылки, которые в ней уже имеются, если это так необходимо.

unknown1
+2
unknown1, 12 Мая , url

Спасибо, дополнение действительно раскрывает эту модель. И действительно, в решении подобных задач нейронная сеть справляется лучше всего, и лучше человека однозначно.

suare
+2
suare, 12 Мая , url

Спасибо за понимание.

Я продолжу, разместив и эту публикацию.

К сожалению, я неспециалист в этой области, но интересуюсь подобными вопросами.

Постараюсь быть максимально полезным, хотя испытываю сложности с оформлением.

bpujq
+1
bpujq, 12 Мая , url

Ничего не понял. От слова «совсем».Но, если бы российское руководство объявило о реализации, скажем, научного проекта «Циолковский» (только без рогозина), который по стоимости соизмерим с бесхозным дворцом в Крыму, так я бы и не возражал: знания требуют, для их добычи, денег не меньше, чем для  золота или алмазов. А «выхлоп» (в весьма далёкой перспективе) не очень конкретен. Но, тем не менее, лучше вложиться в науку (не в «распил» средсств, выделенных на науку), чем в «яхты Абрамовича...» и прочее непотребство...

precedent
0
precedent, 12 Мая , url

Прекратите вы, «яхты», прекратите этот быдло — стайл пихать всюду, даже в новости науки. 

Остудите свой разум возмущенный, чтоб не кипел, а ты выкипит совсем. А примеров полно, «по сабжу»

Российский математик ускорил работу систем компьютерного зрения на 40%

comander
+1
comander, 13 Мая , url

ссылка мимо

вот нужная nauka.tass.ru/nauka/11350021

Образование, учёные степени и учёные звания



2016
Доктор технических наук: ГОУ ВПО Нижегородский государственный технический университет им. Р. Е. Алексеева, специальность 05.13.01 «Системный анализ, управление и обработка информации», тема диссертации: Методы классификации аудиовизуальной информации на основе посегментного анализа однородности

2015
Ученое звание: Доцент

2010
Кандидат наук: Высшая школа экономики, специальность 05.13.18 «Математическое моделирование, численные методы и комплексы программ», тема диссертации: Разработка метода направленного перебора альтернатив в задачах классификации объектов на основе теоретико-информационного подхода



2008
Специалитет: Нижегородский государственный технический университет, специальность «Прикладная математика и информатика», квалификация «Математик, системный программист»


suare
0
suare, 13 Мая , url

Спасибо за поправку. По предыдущей ссылке прошёл, удивился, но не стал искать и исправлять.

А статья, действительно интересная и вполне «в тему» новости.

Поставлю сюда, а не в дополнения.

12 МАЯ, 12:16

Российский математик ускорил работу систем компьютерного зрения на 40%

Подобные системы, как отметил профессор Андрей Савченко, идеально подходят для обработки данных, поступающих с систем видеонаблюдения

МОСКВА, 12 мая. /ТАСС/. Исследователь из НИУ ВШЭ разработал новый алгоритм «настройки» нейросетей, позволяющий ускорить их работу при распознавании изображений примерно на 40% по сравнению с уже существующими решениями такого рода. Об этом сообщила в среду пресс-служба НИУ ВШЭ.

«Скоростью работы нейросетей иногда можно пожертвовать, но она имеет значение, например, в системах видеонаблюдения, где крайне желательно принимать решения в реальном времени, то есть не более 20-30 миллисекунд на один кадр. Наш подход позволит ускорить работу этих систем, не теряя при этом точности распознавания», — заявил профессор НИУ ВШЭ Андрей Савченко, чьи слова приводит пресс-служба вуза.

За последние годы ученые значительно продвинулись в разработке систем искусственного интеллекта и создали нейросети, способные выполнять нетривиальные задачи и даже «мыслить» креативно, создавая новые образцы искусства и технологий. Это стало возможным как благодаря развитию вычислительных систем, так и появлению новых математических принципов, описывающих устройство и работу систем машинного обучения.

При этом наиболее широко и плодотворно нейросети применяются для распознавания лиц и объектов, а также для классификации изображений — решения самой первой задачи, которая была освоена этими алгоритмами свыше десятилетия назад. Самые современные нейросети подобного типа не только способны определять объекты на фотографиях и видеороликах в режиме реального времени, но и дорисовывать их частичные изображения при необходимости.

Настройка нейросетей

Подобные системы, как отмечает профессор Савченко, идеально подходят для обеспечения работы систем «компьютерного зрения» для автономных дронов и автомобилей, а также для обработки данных, поступающих с систем видеонаблюдения. Дальнейшему повышению их эффективности мешает то, что рост точности работы этих нейросетей обычно сопровождается существенным снижением в скорости распознавания изображений.

Профессор Савченко разработал алгоритм, который позволяет значительно ускорить работу фактически любой подобной нейросети при помощи статистических методов последовательного анализа и множественных сравнений. Эти математические инструменты были разработаны специально для оценки того, как много замеров нужно провести в произвольном эксперименте, чтобы получить однозначный ответ или данные определенного уроня качества.

Как отмечает исследователь, в случае с системами «компьютерного зрения» эти математические подходы помогают системе искусственного интеллекта оценить то, как много слоев нейронов потребуется для решения задачи с заранее заданным минимальным уровнем точности. Это позволяет максимально быстро прийти к правильному ответу и при этом совершить минимум ошибок при распознавании изображения.

Как показали последующие опыты, этот подход повысил скорость распознавания изображений на 40%, что было особенно характерно для тех нейросетей, которые были обучены на очень ограниченном наборе фотографий или видеороликов. Ускорение их работы, как надеется профессор Савченко, значительно расширит практическое применение систем «компьютерного зрения» в быту и научной практике.



Войдите или станьте участником, чтобы комментировать