
Ученые из Сибири добавили ИИ искусственного воображения
Представьте себе мир, где искусственный интеллект (ИИ) не просто обрабатывает огромные массивы данных, но и способен строить внутренние модели реальности, похожие на наше собственное восприятие окружающего мира. Именно такую перспективу открывают исследования учёных из Иркутска и Новосибирска, предложивших интегрировать в крупные языковые модели, такие как ChatGPT, систему "искусственного воображения".
Сегодняшние ИИ-модели часто критикуют за отсутствие целостной картины мира, что приводит к нестабильным результатам и появлению недостоверной информации ("галлюцинаций"). Доктор физико-математических наук, профессор Иркутского госуниверситета Андрей Манцивода объясняет: "Мы учим искусственный интеллект 'воображать' предметную область, то есть видеть в целом прозрачный контекст фактов, связей и правил. Этот контекст помогает большим языковым моделям отвечать точнее и надежнее".
Учёные сравнивают работу современных ИИ с человеческой интуицией — быстрым откликом на основе имеющихся данных. Однако, подобно людям, полноценное мышление требует трёх компонентов: интуиции, воображения и рассуждения. Предложенное ими решение представляет собой специальную логическую модель, подобную "стеклянному сосуду", где все объекты, связи и правила становятся видимыми и проверяемыми.
Практическое внедрение этой технологии уже началось благодаря поддержке фонда "Сколково". Созданная учёными платформа bSystem и её упрощённая версия Ontobox предназначены для построения интеллектуальных агентов, где "интуиция" языковых моделей усиливается "воображением" логических систем.
Этот научный шаг существенно повысит доверие к ИИ-технологиям в критически важных областях — медицине, образовании, науке, бизнесе. Кроме того он откроет путь к созданию действительно универсального помощника, способного понимать запросы пользователей глубже и давать более осмысленные ответы. Новая архитектура ИИ возможно станет следующим важным этапом эволюции цифровых помощников. Вместо "чёрного ящика", выдающего иногда сомнительные результаты, появятся системы с прозрачной внутренней моделью, позволяющей контролировать процесс принятия решений.
Это значит, что в ближайшем будущем мы сможем доверять ИИ не только типовые задачи, но и принятие сложных решений, требующих глубокого понимания контекста. Например, врач сможет полагаться на диагностику, основанную на логически обоснованном выводе, а студент получит объяснения, учитывающие взаимосвязи понятий из разных сфер человеческих знаний.