Research / Problem BriefПостановка задачи
Problem Brief Постановка задачи
February 2026
Февраль 2026

The Convergence Problem:
When AI Art Systems Stop Exploring

Проблема конвергенции:
когда AI-арт-системы перестают исследовать

After ~2000 generations of autonomous art creation, gen-emerge collapsed into a local optimum. Instead of evolution — repetition. Instead of exploration — exploitation of the discovered. This document identifies 7 root causes and proposes a paradigm shift.
После ~2000 поколений автономного творчества gen-emerge коллапсировал в локальный оптимум. Вместо эволюции — повторение. Вместо исследования — эксплуатация найденного. Документ определяет 7 корневых причин и предлагает парадигмальный сдвиг.
12 min read
12 мин

What is Gen-Emerge

Что такое Gen-Emerge

Gen-emerge is an autonomous generative system for creating series of digital art. The system works cyclically: it reads the external world (news, events, context), interprets a given artistic thesis, forms a visual ontology, generates an image through LLM + image model, evaluates the result, reflects, corrects course — and repeats. Cycle after cycle, series after series.

Gen-emerge — автономная генеративная система для создания серий цифрового искусства. Система работает циклически: считывает внешний мир (новости, события, контекст), интерпретирует заданный художественный тезис, формирует визуальную онтологию, генерирует изображение через LLM + модель изображений, оценивает результат, рефлексирует, корректирует курс — и повторяет. Цикл за циклом, серия за серией.

Design Goal
Цель проектирования

Not a single good image, but a continuous flow of visually and conceptually diverse art, evolving over time.

Не одна хорошая картинка, а непрерывный поток визуально и концептуально разнообразного искусства, эволюционирующего со временем.

Fig. 1. Gen-Emerge Pipeline Architecture
PERCEPTION GENERATION EVALUATION S₁ Snapshot External context ingestion S₂ Ontology Visual language formation S₃ Intent Creative plan synthesis S₄ Generate LLM prompt → image model → artifact GPT-4.1 S₅ Critique Multi-criteria evaluation S₆ Reflect Course correction S₇ Memory Persistent rules update FEEDBACK LOOP news, events, context 8 PARALLEL FEEDBACK CHANNELS Score history · Visual memory · Critic directives · Ontology drift · Style genome · Composition rules · Thematic coherence · Series continuity Models: GPT-4.1 (text) · gpt-image-1 (visual) · Claude, Gemini, Llama (multi-LLM access)
Рис. 1. Архитектура пайплайна Gen-Emerge
ВОСПРИЯТИЕ ГЕНЕРАЦИЯ ОЦЕНКА S₁ Снимок Считывание внешнего контекста S₂ Онтология Формирование визуального языка S₃ Замысел Синтез творческого плана S₄ Генерация LLM-промпт → модель изображений → артефакт GPT-4.1 S₅ Критика Мультикритериальная оценка S₆ Рефлексия Коррекция курса S₇ Память Обновление персистентных правил ПЕТЛЯ ОС новости, события, контекст 8 ПАРАЛЛЕЛЬНЫХ КАНАЛОВ ОБРАТНОЙ СВЯЗИ История оценок · Визуальная память · Директивы критика · Дрейф онтологии · Геном стиля · Правила композиции · Тематическая связность · Непрерывность серии Модели: GPT-4.1 (текст) · gpt-image-1 (изображения) · Claude, Gemini, Llama (мульти-LLM доступ)

What Happened

Что произошло

After ~2000+ generations, the system collapsed into a local optimum. Images became predictably "beautiful" and predictably identical: similar palettes, similar compositions, similar materials. The system found "what works" and stopped searching.

После 2000+ поколений система коллапсировала в локальный оптимум. Изображения стали предсказуемо «красивыми» и предсказуемо одинаковыми: похожие палитры, похожие композиции, похожие материалы. Система нашла «то, что работает» — и перестала искать.

Core Problem
Суть проблемы

This is not a bug of a specific implementation. This is a fundamental property of optimization systems, built into the paradigm itself.

Это не баг конкретной реализации. Это фундаментальное свойство оптимизационных систем, вшитое в саму парадигму.

2000+Generations before plateau
8Feedback channels reinforcing convergence
7Root causes identified
13Proposed solutions
2000+Поколений до плато
8Каналов обратной связи, усиливающих конвергенцию
7Корневых причин выявлено
13Предложенных решений

Seven Root Causes

Семь корневых причин

1
Optimization kills creativity

The system optimizes score → converges to what maximizes score. But "best" and "diverse" are conflicting objectives. Without an explicit diversity mechanism, the system always chooses exploitation over exploration.

2
8 feedback channels suppress exploration

Prompt Result Journal, Visual Memory, Rule Supplements, Breakthrough Styles, Score History — all tell the LLM "here's what worked before." For an LLM, this is an anchor. Each channel reinforces the tendency; all 8 together form an impenetrable wall of convergence.

3
The "DO NOT REPEAT" paradox

Text instruction "don't repeat previous works" doesn't work. Research confirms: anchoring bias is systemic across all LLMs. Show an example + say "don't do this" = show an example. LLMs anchor on content, not instruction.

4
Signal laundering through Snapshot

Snapshot Builder collects external data but has access to the previous cycle's Creative Intent. External data is "laundered" through the lens of the established style. Provenance is violated — the system thinks it's getting fresh input, but receives a reflection of its own preferences.

5
Thesis anchors palette

The artistic thesis (e.g., "fragility of digital memory") is interpreted stereotypically by the LLM: certain colors, materials, moods. The thesis is set once per series → the entire series collapses to one interpretation.

6
No diversity gate

The system has no mechanism for rejecting results too similar to previous ones. Any result that receives an acceptable score is accepted. No "diversity airlock."

7
Accumulation without forgetting

Memory grows monotonically. Rules accumulate, breakthrough styles accumulate, examples accumulate. Old entries are never deleted or weakened. The LLM context gets denser with the past → less room for the new.

1
Оптимизация убивает креативность

Система оптимизирует оценку → сходится к тому, что максимизирует оценку. Но «лучшее» и «разнообразное» — конфликтующие цели. Без явного механизма разнообразия система всегда выбирает эксплуатацию вместо исследования.

2
8 каналов обратной связи подавляют исследование

Prompt Result Journal, Visual Memory, Rule Supplements, Breakthrough Styles, Score History — все говорят LLM «вот что раньше работало». Для LLM это якорь. Каждый канал усиливает тенденцию; все 8 вместе образуют непроницаемую стену конвергенции.

3
Парадокс «НЕ ПОВТОРЯЙ»

Текстовая инструкция «не повторяй предыдущие работы» не работает. Исследования подтверждают: anchoring bias системен для всех LLM. Показать пример + сказать «не делай так» = показать пример. LLM якорятся на контент, не на инструкцию.

4
Отмывание сигнала через Snapshot

Snapshot Builder собирает внешние данные, но имеет доступ к Creative Intent предыдущего цикла. Внешние данные «отмываются» через призму устоявшегося стиля. Провенанс нарушен — система думает, что получает свежий вход, а получает отражение собственных предпочтений.

5
Тезис якорит палитру

Художественный тезис (напр., «хрупкость цифровой памяти») интерпретируется LLM стереотипно: определённые цвета, материалы, настроения. Тезис задаётся один раз на серию → вся серия схлопывается в одну интерпретацию.

6
Нет шлюза разнообразия

У системы нет механизма отклонения результатов, слишком похожих на предыдущие. Любой результат, получивший приемлемую оценку, принимается. Нет «шлюза разнообразия».

7
Накопление без забывания

Память растёт монотонно. Правила накапливаются, прорывные стили накапливаются, примеры накапливаются. Старые записи никогда не удаляются и не ослабляются. Контекст LLM уплотняется прошлым → меньше места для нового.

Scientific Context

Научный контекст

The gen-emerge convergence problem is a specific case of three fundamental scientific problems:

Проблема конвергенции gen-emerge — частный случай трёх фундаментальных научных проблем:

Three Scientific Analogues
PREMATURE CONVERGENCE Evolutionary Algorithms Fitness function deceives search → Novelty Search, MAP-Elites MODE COLLAPSE GANs Generator finds narrow set → Minibatch discrimination MODEL COLLAPSE Self-Consuming Loops Training on own outputs → External data dilution GEN-EMERGE CONVERGENCE All three problems simultaneously + LLM anchoring bias + RLHF trap

Additionally: anchoring bias in LLMs (experimentally confirmed in 2024-2025), the RLHF trap (optimization for median annotator preferences suppresses divergence), and information laundering (generative model outputs are "laundered" and return to training).

Дополнительно: anchoring bias в LLM (экспериментально подтверждён в 2024–2025), RLHF-ловушка (оптимизация под медианного аннотатора подавляет дивергенцию) и отмывание информации (выходы генеративных моделей «отмываются» и возвращаются в обучение).

The Paradigm Shift

Парадигмальный сдвиг

From Quality to Quality-Diversity
От Quality к Quality-Diversity

From "optimize quality" → to "maximize coverage of the space at a minimum quality threshold."

От «оптимизировать качество» → к «максимизировать покрытие пространства при минимальном пороге качества».

High score no longer means "do more like this." High score means "this is an achievement, remember it in the Museum, explore something DIFFERENT." Inversion of success semantics.

Высокая оценка больше не означает «делай ещё так же». Высокая оценка означает «это достижение, запомни в Музее, исследуй что-то ДРУГОЕ». Инверсия семантики успеха.

Architectural Approach: Three Layers

Архитектурный подход: три уровня

Architecture
System topology: modules, connections, feedback loops, data flows. The "form."
Techniques
Specific algorithms filling the modules. The "content," combinable with different architectures.
Human-in-the-Loop
Asynchronous course correction that never blocks the system.
Архитектура
Топология системы: модули, связи, петли обратной связи, потоки данных. «Форма».
Техники
Конкретные алгоритмы, наполняющие модули. «Содержание», комбинируемое с разными архитектурами.
Human-in-the-Loop
Асинхронная коррекция курса, никогда не блокирующая систему.

Multi-Agency as the Key Advantage

Мультиагентность как ключевое преимущество

With access to the full spectrum of LLMs, multi-agent architectures become a fundamental strategy. Convergence of a single model is a fundamental property (anchoring bias, RLHF trap). Fighting it through gates and constraints is mitigation. Using different models with different biases is eliminating the cause.

Имея доступ ко всему спектру LLM, мультиагентные архитектуры становятся фундаментальной стратегией. Конвергенция одной модели — фундаментальное свойство (anchoring bias, RLHF-ловушка). Бороться с ней гейтами и ограничениями — это митигация. Использовать разные модели с разными смещениями — это устранение причины.

Three Decorrelating Mechanisms
Role-Model Separation Proposer ≠ Generator ≠ Judge Different models per role Information Barriers Generator ≠ see Proposer Judge ≠ see reasoning Adversarial Dynamics Proposer breaks patterns of Generator, not assists STRUCTURAL DECORRELATION OF BIASES No single-agent architecture can reproduce all three simultaneously

13 Architecture-Invariant Solutions

13 архитектурно-инвариантных решений

#SolutionAddresses Root Cause
B1Score semantics: museum + taboo pressure#1, #6
B2Compass-only in LLM context (1 line direction, no examples)#2, #3
B3Provenance: Snapshot isolated from creative state#4
B4FadeMem aging for all memory entities (Ebbinghaus curve)#7
B5Museum / Map separation (achievement archive ≠ working memory)#2, #3
B6QD-score and coverage as primary metrics#1
B7Dual fingerprint (palette + semantic embedding)#5, #6
B8Human async, never blocking
B9Martingale Score as stagnation detector#1, #2
B10Diversity gate as deterministic sidecar (not a prompt)#3, #6
B11Stepping stones archive (procedural skills stored even at low score)#1
B12Role-model separation (different models for different roles)#2, #3
B13Information barriers (agents don't see each other's reasoning)#2
#РешениеКорневая причина
B1Семантика оценки: музей + табу-давление#1, #6
B2Только компас в контексте LLM (1 строка направления, без примеров)#2, #3
B3Провенанс: Snapshot изолирован от креативного состояния#4
B4FadeMem-старение для всех сущностей памяти (кривая Эббингауза)#7
B5Разделение Музей / Карта (архив достижений ≠ рабочая память)#2, #3
B6QD-score и покрытие как основные метрики#1
B7Двойной отпечаток (палитра + семантический эмбеддинг)#5, #6
B8Human async, никогда не блокирует
B9Мартингальная оценка как детектор стагнации#1, #2
B10Шлюз разнообразия как детерминированный sidecar (не промпт)#3, #6
B11Архив stepping stones (процедурные навыки сохраняются даже при низкой оценке)#1
B12Разделение роль-модель (разные модели для разных ролей)#2, #3
B13Информационные барьеры (агенты не видят рассуждений друг друга)#2

Seven Architectural Variants

Семь архитектурных вариантов

ArchitectureConceptDiversity SourceCost
α Linear+GateSingle stream, single model, hard gatePost-hoc rejection~1.5×
β Batch+DPPSingle stream, K candidates, DPP selectionPost-hoc selection~K×
γ IslandsN parallel streams with different constraintsStructural isolation~N×
δ POET CoevolutionCo-evolution of worlds (constraint environments) and generationEmergent~N×
ε MAE TripletThree different models: Proposer / Generator / JudgeAdversarial + role separation~3×
η Multi-Gen EnsembleN different models generate from same constraintsNatural model bias divergence~N×
θ HACN ClustersClusters of different models, partial sharing, SuperegoArchitecture + adversarial + isolation~(N×M+2)×
АрхитектураКонцепцияИсточник разнообразияСтоимость
α Linear+GateОдин поток, одна модель, жёсткий шлюзПост-фактум отклонение~1.5×
β Batch+DPPОдин поток, K кандидатов, DPP-отборПост-фактум отбор~K×
γ IslandsN параллельных потоков с разными ограничениямиСтруктурная изоляция~N×
δ POET CoevolutionКоэволюция миров (среды ограничений) и генерацииЭмерджентная~N×
ε MAE TripletТри разные модели: Proposer / Generator / JudgeАдверсариальная + разделение ролей~3×
η Multi-Gen EnsembleN разных моделей генерируют из одних ограниченийЕстественная дивергенция смещений моделей~N×
θ HACN ClustersКластеры разных моделей, частичный обмен, SuperegoАрхитектура + адверсариальная + изоляция~(N×M+2)×

Experimental Program (~10 weeks)

Экспериментальная программа (~10 недель)

Phase 0
Base Solutions B1–B18 + T5-GATE
Implement all base solutions + T5-GATE automated evaluation pipeline. Foundation for all experiments.
1 week
Phase 1
Architectural Tournament
Single-agent vs multi-agent, islands vs MAE vs HACN. Key metric: coverage per dollar.
3 weeks · 200 cycles per branch
Phase 2
Configuration Tuning
Constraints, diversity mechanisms, memory architecture, descriptor space — on the winning architecture.
3 weeks
Phase 3
Exploration Driver + Outer Loop
Curiosity, coverage, multi-agent exploration. Extended 300-cycle runs. Final architecture → ARCHITECTURE_V3.
3 weeks
Фаза 0
Базовые решения B1–B18 + T5-GATE
Реализация всех базовых решений + конвейер автоматической оценки T5-GATE. Фундамент для всех экспериментов.
1 неделя
Фаза 1
Архитектурный турнир
Одноагентные vs мультиагентные, islands vs MAE vs HACN. Ключевая метрика: покрытие на доллар.
3 недели · 200 циклов на ветку
Фаза 2
Настройка конфигурации
Ограничения, механизмы разнообразия, архитектура памяти, пространство дескрипторов — на победившей архитектуре.
3 недели
Фаза 3
Exploration Driver + внешний цикл
Curiosity, покрытие, мультиагентное исследование. Расширенные прогоны на 300 циклов. Финальная архитектура → ARCHITECTURE_V3.
3 недели

Central Hypothesis

Центральная гипотеза

H₁ — Primary Hypothesis
H₁ — Основная гипотеза

It is hypothesized that a heterogeneous multi-agent architecture — in which distinct generative models are assigned specialized roles within a shared pipeline — will produce a statistically broader distribution of visual and conceptual outputs than any single-model architecture of equivalent computational cost.

Выдвигается гипотеза о том, что гетерогенная мультиагентная архитектура — в которой различным генеративным моделям отводятся специализированные роли в рамках единого пайплайна — будет порождать статистически более широкое распределение визуальных и концептуальных результатов, чем любая одномодельная архитектура эквивалентной вычислительной стоимости.

H₂ — Mechanism
H₂ — Механизм

The convergence observed in single-model systems is attributable to the inherent structure of large language models: each model's latent space encodes a characteristic distribution of aesthetic preferences, compositional biases, and stylistic attractors. This convergence is not a deficiency to be corrected but an intrinsic property of the architecture. Accordingly, the proposed approach is not to counteract convergence within a single model but to exploit the divergence between models by orchestrating multiple heterogeneous agents.

Конвергенция, наблюдаемая в одномодельных системах, обусловлена внутренней структурой больших языковых моделей: латентное пространство каждой модели кодирует характерное распределение эстетических предпочтений, композиционных смещений и стилистических аттракторов. Данная конвергенция является не дефектом, подлежащим исправлению, а неотъемлемым свойством архитектуры. Соответственно, предлагаемый подход состоит не в противодействии конвергенции внутри одной модели, а в использовании дивергенции между моделями посредством оркестрации множества гетерогенных агентов.

Operationalization
Операционализация

Coverage is defined as the volume of the convex hull in a standardized embedding space (CLIP ViT-L/14) occupied by a generation series. Cost-normalized coverage (coverage per unit of API expenditure) serves as the primary comparative metric.

Покрытие определяется как объём выпуклой оболочки в стандартизированном пространстве эмбеддингов (CLIP ViT-L/14), занимаемой серией генераций. Стоимостно-нормализованное покрытие (покрытие на единицу расхода API) выступает в качестве основной сравнительной метрики.

Project Documents
Документы проекта

This brief is part of a three-document research package:

Этот бриф — часть пакета из трёх исследовательских документов:

NextСледующая 02 · Convergence & Anchoring: Research02 · Конвергенция и залипание: исследование