
Сенсорный ИИ: роботы с чувством прикосновения
Мир робототехники давно ждал момента, когда машины научатся не только «видеть», но и «чувствовать». Новый подход, разработанный исследователями из Университета Тохоку, Центра производства одежды Гонконгского научного парка и Гонконгского университета, выводит искусственный интеллект на принципиально иной уровень. Система TactileAloha сочетает данные с камеры и тактильные показания сенсоров, благодаря чему роботизированные руки не просто захватывают предметы, но и определяют их текстуру, лицевую и изнаночную стороны, степень липкости и ориентацию, автоматически подстраивая угол и силу захвата.
Впервые реализованное применение визуально-тактильной технологии позволило роботам успешно справляться с застегиванием липучек и молний — задачами, где критична точность прикосновения и адаптивность движений. Система «видит» объект на видео, оценивает его положение в пространстве, а затем на основе тактильных сигналов корректирует хват и усилие, добиваясь надёжного соединения. Такой уровень контроля ранее был недоступен роботам, работающим исключительно по визуальным данным.
Практическое применение TactileAloha уже не кажется фантастикой: от автоматизированного пошива одежды и работы на складских линиях до помощи в быту — кухня, уборка, мелкий ремонт. Робот-ассистент сможет безошибочно различать тканевые и пластиковые детали, завязывать узлы, стягивать кабели и корректировать захват даже в условиях ограниченного пространства или плохой видимости.
Этот проект — результат использования открытой платформы ALOHA, созданной в Стэнфорде, что подчёркивает важность коллаборации учёных и открытого программного обеспечения. Публикация в IEEE Robotics and Automation Letters еще в июле этого года заявила об эффекте синергии визуального и тактильного восприятия, открыв путь к созданию физического мультисенсорного ИИ. Так роботы стали еще ближе к человеку не только зрением, но и осязанием — и это открывает поистине безграничные возможности для промышленности и повседневной жизни.