Генеративный тупик: может ли ИИ обучаться на данных других ИИ?
Пятикратно переваренный... нейрослоп
Мы как-то незаметно проскочили момент, когда сеть из живого хаоса человеческих мыслей превратилась в огромный перерабатывающий завод, где машины кормят машин. Есть в этом что-то глубоко противоестественное, почти биологическое. Представьте себе библиотеку, где книги пишут не люди, а автоматические корректоры, которые в качестве исходников используют труды других таких же корректоров. На выходе мы получаем не знания, а дистиллированную выжимку, бездумный шлак, который не содержит изначального смысла. Исследователи из Оксфорда и Кембриджа в 2024 году выкатили в Nature статью с довольно пугающим диагнозом: "коллапс модели".
Это не просто "незначительная проблема", это системная деградация, напоминающая вырождение при инцесте. Когда нейросеть (скажем, ChatGPT) начинает поглощать контент, который уже на 90% состоит из нейрослопа (а именно такой прогноз дает Европол на 2026 год), она теряет связь с реальностью.
Самый классический пример: в одном из экспериментов модель OPT-125m мучили рекурсивным обучением. В нулевом поколении она бодро рассуждала о готической архитектуре, но уже к девятому итерационному циклу ее мозг окончательно размяк. Вместо соборов она начала выдавать бесконечные списки... чернохвостых, белохвостых и синехвостых зайцев.

Капля слопа, найденного на просторах интернетов. Интресено, почему именно крокодилы...?
Я и сам наступил на эти грабли, где-то полгода назад, когда пытался через ChatGPT сделать отчёт по лабораторке. Сначала вроде всё шло как по маслу: модель выдавала красивые, структурированные абзацы, которые выглядели весьма убедительно (хоть и очевидно, что сделанные нейронкой). Но где-то к середине ночи, заметил я странную вещь — нейронка начала по кругу гонять одну и ту же мысль про «масштабируемость», просто переставляя слова местами. А потом и вовсе начала галлюцинировать: сослалась на несуществующую библиотеку в Python, причем так уверенно, что я полчаса гуглил, думая, что это я отстал от жизни. В тот момент стало реально не по себе — ты вроде общаешься с "интеллектом", а на деле упираешься в заевшую пластинку, которая просто имитирует глубину. Сразу понимаешь, что без жесткого контроля эта машина за пару итераций превратит любой вменяемый проект в бессвязную кашу.
Жизнь — не игра, кал — не еда
Любая обучающая выборка конечна, и в ней всегда есть "ошибки аппроксимации".
Самое паршивое, что на первых порах этот процесс почти незаметен. Модель может даже казаться более уверенной, ее ответы — более гладкими. Но это уверенность дурака, который выучил три фразы и повторяет их на любой вопрос. В медицине или праве такая уверенность может стоить жизни. Представьте ИИ-доктора, ставящего диагнозы, который забыл про редкое заболевание просто потому, что в данных его предшественников про это было написано слишком мало.
Иногда слышно возражение: а как же AlphaGo? Ведь она училась, играя сама с собой, и стала богом в мире Го (Китайские шахматы).

Честно говоря, не совсем понимаю, в чём смысл игры, если в неё играют роботы... Ну да ладно.
Ответ на самом деле невероятно прост. У игры Го есть жесткие правила. Есть доска, есть камни, есть понятный результат — ты либо выиграл, либо проиграл. Это абсолютная истина, на которую модель может тренировать свои алгоритмы до бесконечности.
Колониальные нейро-империи; научная утопия
Мы сейчас находимся в эпохе, когда данные, созданные людьми до 2022 года, становятся на вес золота. Это последний чистый источник, не отравленный продуктами жизнедеятельности алгоритмов.
P.S. Не пронесёт. И слава богу — может начнут придумывать что-то новое, а не натаскивать ИИ на бенчмарки.
Засорение сети идет стахановскими темпами. По данным Graphite, в конце 2024 года количество ИИ-статей в интернете на какое-то время даже превысило количество человеческих.

Благо, анекдоты нормальные нейросети писать ещё не научились. +1 в пользу людей
Ян Лекун вообще считает, что нынешние текстовые модели — это тупик. Он мечтает о мировых моделях (world models), которые будут учиться не на буквах из интернета, а на видео, наблюдая за физическим миром.
Может быть, это и к лучшему? Человеческое творчество снова вырастет в цене просто потому, что оно будет единственным источником новизны в этом мире одинакового нейрослопа. Качество окончательно победит количество, потому что количество сгенерённого нейронкой контента станет бесконечным и бесплатным, а значит — бесполезным.

Yarru