Тема искусственного общего интеллекта (AGI) снова набирает обороты. В последнее время мы стали свидетелями сразу нескольких громких новостей, удостоившихся всестороннего внимания — от анонса новых интеллектуальных тестов до заявлений ведущих лиц индустрии. И если ты тоже задаёшься вопросом, насколько близко человечество находится к созданию настоящего AGI, то мы, похоже, движемся туда с неожиданной скоростью… или не совсем? Давай разберемся вместе и без пафоса.
Новый тест ARC-AGI-2
Одна из самых интригующих новостей пришла из организации Arc Prize, которая разработала новый стандарт для оценки общего интеллекта ИИ — тест ARC-AGI-2. Это не просто ещё один бенчмарк с множеством точек и диаграмм. Его цель — проверить, насколько ИИ способен решать задачи, требующие настоящего человеческого мышления: абстракции, обобщений, понимания незнакомых концепций. То есть именно то, где часто пасуют даже самые продвинутые языковые модели.
Результаты… мягко говоря, неутешительные. GPT-4.5 и Claude 3.7 — одни из лучших представителей текущего поколения — показали всего около 1% успешного выполнения заданий. Для сравнения, среднестатистический человек решил 60% задач. Здесь хочется воскликнуть: «Правда? Всего один процент?» Да, и в этом весь смысл — реальные способности к адаптации всё ещё остаются вне пределов машинных алгоритмов. И будь ты хоть 70 миллиардов параметров — креативное мышление путь тебе пока заказан.
Кстати, если тебе интересна общая тема искусственного интеллекта, у нас на главной странице ты найдёшь ещё массу полезных материалов.
DeepSeek-AI и модель R1
На этом фоне особенно ярко засияла новость от китайской команды DeepSeek-AI. Они представили свою модель R1, и здесь звучит действительно что-то свежее. Почему? Потому что разработчики заявляют: модель превосходит GPT от OpenAI и Claude от Anthropic в критически важных задачах логического мышления. Это не просто маркетинговая бравада — данные бенчмарков и оценок пользователя действительно подтверждают, что R1 умеет «думать» более структурировано и стабильно в нестандартных ситуациях.
И что особенно заслуживает доверия — компания открыла код модели. В мире, где даже научные публикации крупных технологических компаний становятся всё более закрытыми, такое решение выглядит как глоток воздуха. Если у тебя есть технический бэкграунд, ты можешь лично проверить, что и как работает в их архитектуре. Хотя, конечно, надо учитывать, что отсутствие маркетингового бюджета OpenAI сделает путь DeepSeek-AI к мировой известности несравнимо труднее.
Реальный интеллект — пока мираж?
Вот и получается странная картина. С одной стороны, мы видим чрезвычайный прогресс — модели стали писать код, решать задачи из GRE и даже проходить юридические экзамены. С другой стороны, базовые формы мышления, присущие ребёнку 10 лет, пока не поддаются даже самым продвинутым ИИ-системам. Тут невольно задаешься вопросом: может, мы просто переоцениваем сегодняшние модели?
Классно, что ты можешь попросить GPT подсказать шутку, исправить грамматику в тексте или обсудить события 19 века. Но когда речь заходит о том, чтобы «понять» действительно новую ситуацию, в модели словно срабатывает ступор. Застревает ли она из-за «зазубренных» ответов? Разве у неё есть опыт проживания или чувство контекста? Эти вопросы всё чаще звучат в научных публикациях и на дискуссионных площадках.
Именно в этом слабом месте, по мнению многих исследователей, и кроется вся суть проблемы AGI: не информация решает, а её контекст и способность к переосмыслению.
Так что, как бы мы ни восхищались техническими достижениями 2024 года, стоит честно признать: машины ещё не понимают, что они говорят. И пока тесты вроде ARC-AGI-2 ставят реальные интеллектуальные задачи, наш «прогресс» борется за скромный 1%.
Ожидания против реальности
Конечно, не все настроены столь скептически. Уже давно в медиа появляются резонансные заголовки: «AGI уже на горизонте», «2025 — год разумных ИИ» и прочее. И вроде бы приятно читать такие предсказания, особенно если ты увлекаешься футуризмом. Но по факту выходит, что пока ни одна система не обладает тем, что действительно делает нас… ну, людьми: умением обобщать, учиться с нуля и адаптироваться к новому с минимальной подсказкой.
Следующая часть статьи будет посвящена заявлениям лидеров индустрии — таких как Сэм Альтман и Демис Хассабис, а также мнениям исследователей о том, что нас ждёт в ближайшие 5–10 лет. А пока остаёмся с самым интересным вопросом — что же дальше?
Ставка на 5–10 лет
И вот мы подходим к, пожалуй, самой спорной части всей AGI-дискуссии: прогнозы. Кто-то называет их смелыми, кто-то — наивными, а кто-то, наоборот, считает, что всё происходит даже быстрее, чем должно. В любом случае, в разговоры об искусственном общем интеллекте всё чаще включаются не только учёные и инженеры, но и первые лица крупнейших компаний. Что они говорят? И главное — можно ли верить этим заявлениям?
Оптимизм DeepMind
Демис Хассабис, генеральный директор Google DeepMind, уверен, что AGI вполне реален в горизонте ближайших 5–10 лет. Уверенность эта, с одной стороны, подогревается темпами развития технологий обработки языка, обучения с подкреплением, мультиагентных систем и симуляторов. Но он также признаёт: самой большой преградой остаётся неспособность ИИ действительно понимать окружающий мир — например, читать между строк, интерпретировать социальные контексты или предугадывать человеческие намерения.
И вот тут мне хочется снова задать вопрос — если даже DeepMind признаёт, что нет контекстного понимания, то на чём держится оптимизм относительно 2030 года? Возможно, на вере в некий прорыв, который пока даже не виден в исследовательских лабораториях. Или на том, что текущие достижения в масштабах инженерии действительно впечатляют: например, способность трансформеров справляться с мультимодальными задачами или проводить стратегическое планирование в упрощённых средах.
Альтман и часы тикают
Если Хассабис настроен «умеренно», то Сэм Альтман из OpenAI делает куда смелее прогнозы. По его словам, уже в 2025–2026 годах может быть создана первая система, заслуживающая названия “AGI”. Звучит дерзко? Ещё бы. Но это не просто пиар — Альтман в последних интервью говорит о том, что разрабатываемые архитектуры следующего поколения будут обладать не только более мощными языковыми способностями, но и внутренними представлениями о мире, почти как у людей.
Вот здесь возникает логичный скепсис. Сейчас ни GPT-4, ни Claude 3, ни PaLM-2 не могут, к примеру, с ходу понять, что будет, если одновременно включить чайник и фен в старой квартире (куда уж до сценариев человеческой деятельности). А значит, как и в случае с DeepMind, основная загадка остаётся: как эти модели смогут сформировать то самое “мировое понимание”? Ведь реальный мир — это не просто текст, а ощущение, опыт, чувство пространства и последствий.
Исследователи думают иначе
Интересно, что в то же время серьёзные исследователи в области ИИ, включая Гарольда Коэна, Яна Лекуна или Франсуа Шолле, говорят об AGI гораздо осторожнее. По их мнению, большущая проблема не в архитектуре или размере моделей, а в том, что современные ИИ-системы не умеют учиться на лету. То есть — с минимумом данных, в новых условиях, без ручной настройки и миллиардов обучающих примеров.
Адаптивное обучение, перенос знаний, интуитивное понимание задач — всё это пока остаётся отличительной чертой именно человеческого интеллекта. Даже самые мощные нейросети не способны спонтанно изобрести новую стратегию, если их не натаскать заранее на сотнях примеров. И именно поэтому тесты вроде ARC-AGI-2 так болезненно вскрывают слабые места: модель, прошедшая юридический экзамен, вдруг не справляется с задачей на логическое соотнесение фигур.
Так близко и так далеко
Если подытожить, выходит довольно двойственная картина. С одной стороны, развитие технологий действительно поражает. Мы живём в мире, где ИИ может писать дипломы, самообучаться на симуляциях, управлять беспилотниками и даже принимать участие в планировании миссий NASA. Но с другой — когда мы ставим перед ним задание уровня «как бы ты решил бытовую проблему без шаблона?», он теряется.
На мой взгляд, в этом и есть главный парадокс 2024 года. Технологии растут экспоненциально, но базовые когнитивные принципы, делающие нас разумными существами, по-прежнему неформализуемы для машин. И как бы ни уверяли нас топ-менеджеры в грядущем интеллекте машин, без маленьких шагов в сторону гибкости мышления, адаптивного поведения и минимального контекста весь прогресс будет оставаться имитацией, а не пониманием.
Если хочешь немного отойти от футуризма и взглянуть на более прикладные аспекты AI, можешь заглянуть на нашу главную страницу. Там есть материалы на более земные темы — например, о том, как ИИ помогает в образовании, медицине и бизнесе.
А если интересно подробнее погрузиться в фундаментальный вопрос, что вообще такое искусственный интеллект и чем он отличается от человеческого, очень неплохо написано об этом в этой статье.
AGI — это не просто “ещё одна мощная модель”. Это вопрос: можем ли мы научить машину не просто воспроизводить, а формулировать новое — с пониманием, целью и интуицией?
Так что, читая про рекордные параметры очередного ИИ, всегда полезно спрашивать: а стал ли он умнее — или просто выучил больше?