Российская NtechLab вошла в топ-3 на конкурсе Amazon по распознаванию пешеходов

отметили
20
человек
в архиве

Российский разработчик системы распознавания лиц NtechLab занял третье место в конкурсе по детектированию пешеходов и велосипедистов на дорогах Wider Pedestrian Challenge, организованного мировыми IT-корпорациями Amazon и SenseTime, следует из информации, опубликованной на сайте конкурса.

Как говорится в сообщении NtechLab, первое место заняли разработчики из Национальной академии наук КНР, на втором — исследовательское подразделение крупного китайского интернет-ретейлера JD.com (JD AI Research). «Тройка победителей презентует свои решения на одной из главных конференций по компьютерному зрению European Conference on Computer Vision в Мюнхене», — уточняется в сообщении.

Всего в конкурсе участвовали 35 команд со всего мира. Разработчики должны были представить решения, способные определить силуэты пешеходов и велосипедистов на видео, отличить их от других участников движения и статичных объектов. Видеозаписи для тестирования решений были взяты с камер городского наблюдения в одном из китайских мегаполисов, а также с устройства, установленного на движущемся автомобиле.

Будущее распознавания пешеходов

В NtechLab отметили, что технологии детектирования силуэтов человека и распознавания лиц могут приблизить к 100% точность идентификации личности вне зависимости от угла обзора камеры. Используя сразу обе эти технологии, можно идентифицировать человека, даже если он полностью закрыл лицо или повернулся спиной. Помимо этого, технология детектирования силуэтов позволяет отслеживать перемещения людей или объектов, определять их маршрут. В компании считают, что представленное на конкурсе решение NtechLab может быть использовано при реализации проекта «Безопасный город» госкорпорации Ростех, где NtechLab участвует в качестве технологического партнера.

В то же время задача по распознаванию пешеходов является одной из ключевых для ведущих мировых компаний, участвующих в проектах по созданию беспилотных транспортных средств (среди которых Uber, Google, Intel, а также и все крупные автоконцерны), отмечается в сообщении.

«Мы рады, что наш алгоритм по детектированию силуэтов смог составить достойную конкуренцию решениям крупных китайских компаний, обладающих миллиардными бюджетами на исследования и разработки», — отметил основатель NtechLab Артем Кухаренко, слова которого приводятся в сообщении. По его словам, алгоритм NtechLab обучался в естественных условиях, в ходе тех сценариев, которые компания реализует в России. В числе таких сценариев — определение объемов пассажиропотока на объектах транспортной инфраструктуры, подсчет посетителей спортивных и развлекательных мероприятий, магазинов, ресторанов, казино и так далее, уточнил Кухаренко. «Уверен, что наше решение позволит клиентам открыть новые возможности для роста их бизнеса», — резюмировал он.

Алгоритм NtechLab в 2015 году на конкурсе MegaFace, организованном университетом Вашингтона, опередил более ста команд со всего мира, в том числе Google. В 2017 году разработка NtechLab была признана лучшей по точности и быстроте работы в рамках соревнования, проводимого американским Агентством передовых исследований в сфере разведки. В том же году алгоритм по распознаванию эмоций NtechLab выиграл конкурс EmotionNet, организованный университетом Огайо.х

О компании

Компания NtechLab была основана в 2015 году программистом Артемом Кухаренко и бизнесменом Александром Кабаковым. Стартап специализируется на передовых методах в области самообучающейся нейронной сети для создания алгоритмов по распознаванию лиц. Пилотные проекты по внедрению технологии NtechLab запущены примерно в 100 компаниях по всему миру, включая Россию, Европу, США и Китай.

В декабре 2017 года в NtechLab инвестировал «Ростех» и инвестфонд New Dimension Fund Variable Capital Investment, находящийся под управлением VB Partners. Капитализация компании в перспективе пяти лет может составить $1 млрд.

Добавил precedent precedent 4 Сентября
проблема (2)
Комментарии участников:
Ни одного комментария пока не добавлено


Войдите или станьте участником, чтобы комментировать