«Будущее искусственного интеллекта: от нейросетей к когнитивным революциям и этичному моделированию»

В конце июня Илья Суцкевер, сооснователь OpenAI, выразил свои идеи по поводу эволюции искусственного интеллекта. По его мнению, уже в ближайшее время ИИ-агенты смогут заменить человеческий труд, выполняя за несколько часов объем задач, который раньше занимал бы месяцы. Он считает, что такие агенты смогут стать настоящими виртуальными помощниками, которых можно будет масштабировать до миллионов. Переход к моделям, обладающим настоящим «рассуждением», вызывает беспокойство у многих, но Суцкевер призвал не бояться будущего и активно участвовать в формировании изменений.

В последние два года ИИ-сообщество все больше обсуждает потенциальные последствия быстрого роста цифрового разума, достижения уровня общего интеллекта (AGI) и даже сверхинтеллекта ASI. В этой связи ученые пытаются выяснить, какой будет следующая ступень в развитии.

Многие эксперты в крупных корпорациях предсказывают, что следующим поколением ИИ станут различные формы когнитивного искусственного интеллекта (CAI).

Генеральный директор Google DeepMind Демис Хассабис в интервью Wired заявил, что вероятность достижения AGI в течение следующих 5-10 лет составляет 50%. Он добавил, что впереди нас ждет «время максимального блага человечества» с началом колонизации галактики уже в 2030 году.

Данный подход, включая режим Deep Think чат-бота Gemini от Google, может стать важным шагом к «метапознанию», где машины будут способны к многоуровневой логике и планированию, тем самым приближаясь к когнитивному мышлению.

Старший научный сотрудник Meta AI Ян ЛеКун в прошлом году рекомендовал молодежи воздержаться от формирования LLM, объясняя это доминированием крупных компаний в этой сфере и менее перспективным путем развития.

«Если вы студент, интересующийся созданием систем ИИ следующего поколения, не занимайтесь LLM», — сказал он.

Вместо этого команда Meta сосредоточилась на «моделях мира», аналогичных тем, что есть у животных и людей — системе V-JEPA, которая предназначена для достижения глубокого понимания окружающей действительности. Она обучается интуитивному мышлению через видеоданные с использованием самоконтролируемого обучения. Несмотря на то, что ей нужно меньше данных для обучения, модель показывает лучшее понимание физических законов по сравнению с мультимодальными LLM. Это можно сравнить с тем, как утверждает ЛеКун, что человеческий мозг обрабатывает информацию.

С начала 2024 года OpenAI начала интеграцию долговременной памяти в ChatGPT, делая шаг к созданию устойчивого идентичности и индивидуального стиля мышления. Они стремятся в будущем создать сеть ИИ-агентов, обладающих глубоким пониманием своих пользователей.

Один из ведущих поставщиков инфраструктуры для глобального ИИ — компания Nvidia — разработала серию инициатив, поддерживающих технологии навигации для роботов — стеки DePAI. Генеральный директор компании Дженсен Хуанг считает, что моделирование реального мира и его цифровых аналогов, включая Human, является первичным этапом для разработки рассуждающих ИИ.

В общем смысле, CAI — это попытка внедрить систему с такими характеристиками:

Хотя эти модели далеки от подлинного сознания, они уже инициируют системный переход в сторону имитации мыслительных процессов. Если LLM олицетворяет синтаксис и риторику, то CAI более близок к логике и философии.

То, что еще недавно можно было увидеть исключительно в научной фантастике, сегодня активно внедряется в военные технологии ведущих государств.

На фоне напряженности в международных отношениях последние годы, расходы на оборону постоянно растут. Искусственный интеллект стал главным драйвером прогресса в эффективной защите граждан с акцентом на разработки в области автономного принятия решений и моделирования последствий.

Армия США проводила испытания по когнитивному взаимодействию еще до появления моделей с рассуждениями.

В 2012 году Агентство передовых оборонных исследовательских разработок США (DARPA) представило уникальную систему компьютерного зрения.

CT2WS — это система «мозг-компьютер», использующая нейроинтерфейсы и нейронные сети для предупреждения пехоты о потенциальных угрозах. В состав системы входят 120-мегапиксельные камеры, радары и кластер компьютеров для распознавания объектов, а также операторы с устройствами для считывания мозговой активности.

Чтобы снизить количество ложных срабатываний, в систему был вовлечен человеческий мозг оператора. Людей подключали к системе видеонаблюдения и оперативно показывали им подозрительные кадры, при этом фиксируя их реакцию. Если оператор замечал опасность, нейроинтерфейс моментально фиксировал эту реакцию. Итогом стало сокращение количества ложных тревог с 810 до пяти в час.

В последнее время технологии компьютерного зрения стали доступны и обычным пользователям. Одним из первых примеров их применения стали автомобили Tesla с функцией автопилота.

Секретность и приоритетность правительственных организаций делает трудным понимание того, насколько военные технологии продвинулись за последние десять лет. Тем не менее, темпы военной милитаризации ИИ, информация о которой удается получить из открытых источников, вызывают озабоченность.

В марте стало известно о использовании ИИ-агентов Минобороны США для моделирования военных столкновений с зарубежными армиями. В рамках сотрудничества со Scale AI планируется создание платформы Thunderforge, направленной на повышение эффективности принятия решений на полях боев. Проект реализуется в сотрудничестве с Anduril и Microsoft.

Это не первый случай, когда ИИ-компании сотрудничали с военными. Например, у Microsoft существует многолетнее сотрудничество с израильской армией, которое в феврале 2025 года вызвало протесты среди работников компании.

В январе OpenAI заключила договор с Национальными лабораториями США, согласно которому ИИ-модели стартапа будут использоваться для работы в области ядерного оружия. Ранее Meta предоставила свои технологии для использования правительственными учреждениями и оборонными подрядчиками США и их союзниками. Вскоре это сделала компания Anthropic.

Также существует много данных о неправомерной работе милитаризированного ИИ, что приводило к необоснованным разрушениям и жертвам среди мирного населения.

Все это вместе с централизацией технологий в руках крупных корпораций побуждает инженеров разрабатывать методы этичного использования ИИ.

Один из пионеров ИИ, Йошуа Бенжио, раскритиковал многомиллиардную гонку за созданием передовых технологий. Он обратил внимание на опасные особенности в новых моделях и на обман пользователей.

Свою обеспокоенность ученый высказал в начале лета во время запуска новой некоммерческой организации LawZero. По его словам, группа будет сосредоточена на создании более безопасных систем, которые «изолируют исследования от коммерческого давления». Этот путь также совпадает с намерением OpenAI уйти от своих «благотворительных» корней и перейти к коммерческому подходу.

Считается, что модели ИИ от LawZero не будут давать однозначных ответов, как современные системы. Вместо этого они будут предоставлять вероятность верности ответов.

В интервью изданию The Guardian Бенжио заявил, что его модели будут обладать «чувством скромности — осознанием того, что они не уверены в своих ответах».

Ученый стремится разработать модель, которая могла бы улучшить существующие предложения ведущих исследовательских групп в области ИИ и предотвращать действия, противоречащие интересам людей.

«Худший сценарий — это вымирание человечества. Если мы создадим ИИ, который будет умнее нас, но несовместим с нами и начнёт конкурировать, это приведет к нашему концу», — отметил он.

Среди новых стартапов есть те, кто готов поддерживать будущее человечества, создавая разумные и этические ИИ.

MindCast AI (MCAI) представляет собой концептуально проработанный пример когнитивного ИИ. Система моделирует процессы принятия решений с акцентом на этическое содержание и предсказуемость поведения в будущем.

Основатель компании Ноэль Ли начал публиковать свои идеи на Substack около трех месяцев назад, предоставив четкое и детализированное решение. Хотя на данный момент недостаточно практических демонстраций технологии, сама концепция вызывает интерес.

MCAI — это CAI, созданная для имитации суждений и поведения человеческих агентов, сосредоточенная на конечных результатах, а не на предсказаниях, основанных на исторических данных. Эта система использует моделирование для предвосхищения поведения в реальном мире.

Согласно ценностному описанию, с помощью MCAI пользователи смогут:

Современные модели ИИ ориентированы на скорость и масштаб, но игнорируют более глубокие вопросы, касающиеся разумных решений, такие как доверие, благосостояние и предсказуемость.

«Миллиарды инвестируются в стартапы из-за репутации их основателей,
а не на основе их демонстрируемых возможностей»,
— говорится в манифесте MCAI.

Система MCAI включает три основные компетенции:

Патентованная структура когнитивного цифрового двойника (CDT) была зарегистрирована в апреле 2025 года. Система уже применяется в анализе корпоративных стратегий, разработке политик и антимонопольных расследованиях.

В процессе создания ИИ-агента стартап делает акцент на доверии.

«Без надежных условий для когнитивных архитектур ИИ-компаньоны становятся системами тотального наблюдения», — написано в манифесте.

MCAI справляется с этой задачей с помощью механизмов памяти, целостности и идентичности.

Ноэль Ли утверждает, что их CDT моделирует решения, основывается на моральных принципах и поддерживает последовательность во времени, адаптируясь к изменениям в истории и ценностях.

Бен Герцель, основатель ИИ-криптостартапа SingularityNET, считается одним из основоположников ИИ и ведущим идеологом концепции AGI, поэтому он активно пытается защитить ее будущее.

Исследователь выступает против централизации и милитаризации технологий, которые могут угрожать свободе выбора и выражению человеческой сущности. Его блокчейн-площадка SingularityNET, основанная в 2017 году, является продолжением его видения достижения AGI, создавая децентрализованную инфраструктуру для разработки ИИ с акцентом на системы, подобные Hyperon.

Вместе с Fetch.ai, CUDOS и Ocean Protocol, SingularityNET создала коалицию под названием Artificial Superintelligence Alliance с токеном ASI, цель которой — сфокусировать ресурсы для конкуренции с ведущими игроками в индустрии.

В сентябре 2024 года Герцель сообщил, что система на базе OpenCog Hyperon проявляет признаки частичного самосознания и является автономным агентом с «собственными целями», а не простой чат-бот. Выпуск экспериментальной версии Baby AGI запланирован на 2025 год.

Еще один выдающийся ученый в области ИИ, Джефф Хокинс, создатель теории «память-предсказание», в настоящее время работает над созданием «биологически правдоподобного» ИИ, основанного на принципах неокортекса. Модель мира, память и иерархия представлений — всё это приближает новую некоммерческую организацию Thousand Brains Project к когнитивному ИИ.

Децентрализованное пространство Web3 предоставляет все необходимое для безбарьерного развития ИИ и позволяет отслеживать и изменять направление технологии. Artificial Superintelligence Alliance, основанная на аналогичных принципах, эффективно использует преимущества блокчейна.

Развитие CAI продвигается стремительно, и первые рабочие образцы ожидаются в текущем году. Пока крупные ИИ-компании соперничают за лидирующие позиции и новые оборонные контракты, радует растущее количество стартапов, ориентированных на децентрализацию.