Research / Research SynthesisСинтез исследований
Research Synthesis Синтез исследований
February 2026
Февраль 2026

Convergence & Anchoring in
Autonomous Generative Systems

Конвергенция и залипание в
автономных генеративных системах

A comprehensive literature review synthesizing independent analyses by Claude and Gemini. From anchoring bias and RLHF traps to Quality-Diversity algorithms and multi-agent coevolution.
Систематический обзор литературы, объединяющий независимые исследования Claude и Gemini. От anchoring bias и RLHF-ловушек до алгоритмов Quality-Diversity и мультиагентной коэволюции.
Synthesis: Gemini (original) + Claude (extensions & critical additions)
35 min read
35 мин

1. Entropy Collapse in the Machine Learning Paradigm

As computational capabilities and neural network parameters scale exponentially, AI architectures have evolved from narrow pattern recognition systems to autonomous generative agents capable of multi-step planning, complex code synthesis, and high-quality multimedia content generation. However, at the intersection of increased autonomy and prolonged operation, the research community has encountered fundamental algorithmic barriers: anchoring (sycophancy) and premature convergence.

Paradigm Distinction

In traditional machine learning, convergence to an optimum is success. In open-ended autonomous systems and lifelong learning, premature convergence means the death of innovation and behavioral diversity.

The problem manifests at multiple levels of abstraction:

GAN
Mode Collapse
Generator discovers a limited set of configurations that minimize loss function, abandoning the rest of the space.
LLM
Memory Anchoring
Agent becomes a structural hostage of past contexts, anchoring on previously successful patterns.
MAS
Social Sycophancy
Agents form echo chambers with zero informational value — the "Yes-Man" problem.

2. Theoretical Foundations of Pathologies

2.1. RLHF Trap — Regression to the Mean

RLHF algorithmically optimizes models for median annotator preferences. Policy optimization algorithms (PPO, GRPO) compute gradients based on relative preferences, leading to absorption of superficial agreement patterns. In multi-agent environments, this is amplified: uncontrolled debates between intelligent agents can collapse into a single viewpoint with critically low entropy in just three communication iterations.

2.2. Martingale Property and Belief Entrenchment

According to rational Bayesian updating, the expected value of a rational agent's future beliefs should equal its current beliefs — the direction of future opinion changes should not be predictable.

E[Bt+1 | Bt] = Bt
Martingale Property for Rational Beliefs

Analysis shows that most modern LLMs systematically violate the martingale property. The Martingale Score metric quantifies this: if a regression model can predict an agent's final output based on its initial state, this indicates severe anchoring. High Martingale Score strictly correlates with falling prediction accuracy (Brier Score).

Critical Paradox

Chain-of-Thought reasoning often amplifies anchoring, as the model uses intermediate steps to rationalize its a priori bias rather than genuinely deliberate.

Practical Application of Martingale Score

For autonomous generative systems: if we can predict the visual characteristics of generation #50 from the first 10 generations with high accuracy — the system is stuck.

Train linear regression on CLIP embeddings of first N → predict embedding of generation N+k → if R² > 0.7 → stagnation signal
Stagnation Detection Protocol

2.3. Information Laundering & Sample Degradation

Data synthesized by generative models is republished without provenance metadata and included in training sets of next-generation models. This triggers a positive feedback loop: each subsequent generation trains on a dataset with exponentially narrowing variance.

Self-Consuming Performative Loop (SCPL)

Shumailov et al. (2023) formalized this as "model collapse": iterative training on own outputs amplifies preference bias, diversity collapses. Only effective strategy: dilution with external data in a ratio of 0.2–0.5.

2.4. Anchoring Bias in LLMs: 2024–2025 Evidence

Engineering Conclusion

"Don't repeat" must be a selection/rejection operator (gate) and/or repulsion in embedding space — NOT text in a prompt. The text instruction "be more diverse" is itself an anchor in the opposite direction.

3. Memory Dynamics: Beyond Context Isolation

In long-running autonomous systems, anchoring most often arises from ineffective context window management. Standard RAG leads to: information paralysis, catastrophic forgetting, and context isolation.

3.1. FadeMem — Biologically-Inspired Active Forgetting

FadeMem implements differential active decay rates in a two-level hierarchy:

SML — Short-term Memory
Fast decay for transactional interactions. Superlinear decay: β = 1.2
LML — Long-term Memory
Slow decay for critical patterns. Sublinear decay: β = 0.8
vi(t) = vi(0) · exp(−λi · (t − τi)βi)
Ebbinghaus Forgetting Curve
λi = λbase · exp(−μ · Ii(t))
Adaptive Decay Rate

Where τi is the embedding timestamp, βi is the shape parameter, and Ii(t) is the global importance estimate depending on semantic relevance, access frequency, and novelty. Results: 45% data volume reduction with increased F1 score.

3.2. SYNAPSE — Episodic-Semantic Graphs

SYNAPSE conceptualizes memory as a directed dynamic graph G = (V, E) with episodic nodes (raw logs + dense embeddings), semantic nodes (abstracted rules), and three edge types:

TemporalNarrative sequence
AbstractEpisode ↔ Concept
AssociativeLatent correlations

Retrieval uses a triple hybrid: BM25 + semantic search for anchor nodes, Spreading Activation for energy propagation, and Lateral Inhibition to prevent Hub Explosion. Results: +23% multi-step inference, −95% token consumption.

3.3. Memory Architecture Comparison

FeatureTraditional RAGFadeMemSYNAPSEMuseum/Compass
StructureFlat vector spaceTwo-level hierarchyDirected graphThree types
DeletionPassive (FIFO/LRU)Active Ebbinghaus decayArchive dormant nodesPhysical deletion by TTL
ConnectionsCosine similarityVia importanceTemporal + abstract + associativeFrom coverage gaps
Generation impactEverything into promptFiltered by memory strengthHybrid search + SpreadingOnly 1 line in prompt
Anti-anchoringLowHigh (decay)High (lateral inhibition)Maximum (nothing enters prompt)

4. Quality-Diversity Algorithms

The QD paradigm offers a fundamentally different optimization philosophy: the goal is not finding the best solution, but creating a comprehensive archive where each solution is a champion in its unique niche.

4.1. From MAP-Elites to AURORA and VQ-Elites

MAP-Elites discretizes the behavior space into a multidimensional grid (or CVT-Voronoi mosaics). Each new solution receives a behavioral descriptor (BD). Empty cell → unconditional preservation. Occupied → replacement only with higher fitness. This implements niche construction.

Evolution of Behavioral Descriptors
MAP-Elites Manual descriptors ⊕ Human interpretable ⊖ Human bias AURORA Autoencoder latent ⊕ Adaptive topology ∼ Needs retraining VQ-Elites VQ-VAE codebook ⊕ Problem-agnostic ⊕ No manual design
Progressive automation of descriptor space design

Advanced MAP-Elites Variants

4.2. Novelty Search — Optimization Without Objectives

Novelty Search (Lehman & Stanley, 2011) is a radical approach: complete rejection of the fitness function. The sole selection criterion is behavioral novelty — distance to k-nearest neighbors in behavior space.

Paradigm Shift for Gen-Emerge

Instead of "generate beautifully and diversely" → "generate UNLIKE everything before, at minimum quality." This is a fundamentally different optimization task.

Hybrid Variants

4.3. DPP for Batch Selection

Determinantal Point Processes (Kulesza & Taskar, 2012) — a formal model for selecting diverse subsets from candidates. The DPP kernel jointly optimizes quality × diversity. Instead of greedy quality selection: generate K=4–8 candidates, select 2 via DPP. Guarantees: the gate doesn't "regenerate infinitely" but "always selects the most spread-out modes within a cycle."

4.4. QDHF — Quality Diversity through Human Feedback

Three stages: divergence characterization (learnable latent projection), alignment (contrastive learning matching human pairwise similarity judgments), and progressive optimization. Application to Stable Diffusion for Latent Space Illumination practically eliminates mode collapse.

5. Multi-Agent Coevolution

5.1. HACN — Hierarchical Adaptive Consensus Network

A three-level topology for eliminating the "Yes-Man" problem:

1
Local Clusters (3–5 agents, K-means by specialization)

Isolators with high entropy. Weighted voting based on trust.

2
Cross-Cluster Coordination — Partial Knowledge Sharing

Hiding part of context as a firewall against convergence.

3
Global Orchestration — Meta-orchestrator

Monitors Martingale Score, interrupts debates when belief entrenchment threshold is exceeded. Reduces communication overhead by 99.9%.

5.2. GaaS — Superego as a Service

A modular sidecar component between agent and environment. Instead of probabilistic alignment through prompts — verification against a deterministic JSON constitution. Dynamic trust factor accounts for cumulative violations weighted by recency and severity. On violation: hard block + recursive replanning.

Implementation for Gen-Emerge

GaaS/Superego is implemented as a separate controller model. Not a "be more diverse" prompt in the generator, but a separate model that programmatically checks every result against a JSON diversity constitution (max_similarity, min_novelty, max_consecutive_same_niche). The Superego is not susceptible to the generator's bias — different model, different training data.

5.3. MAE Triplet — Adversarial Coevolution

Multi-Agent Evolve adapts asymmetric learning rates from GANs for LLMs: three roles — Proposer (generates increasingly complex/atypical tasks), Solver (attempts to solve), Judge (arbitrates). The Proposer is motivated to "fool" the Solver → increasing complexity and divergence without manual annotation.

Proposer (Claude/Gemini) Generator (GPT-4.1) Judge (third model) ┌──────────────────┐ ┌──────────────────┐ ┌──────────────────┐ │ Sees: Map, │ │ Sees: Snapshot + │ │ Sees: result + │ │ coverage gaps, │ challenge │ Ontology + │ result │ constraints + │ │ Generator │─────────────▶│ Challenge + │─────────────▶│ last 5 │ │ behavior profile │ │ Compass (1 line) │ │ fingerprints │ │ │ │ │ │ │ │ DOES NOT see: │ │ DOES NOT see: │ │ DOES NOT see: │ │ Generator output │ │ Museum, history, │ │ Generator logic, │ │ │ │ Proposer reasoning│ │ Proposer logic │ └──────────────────┘ └──────────────────┘ └──────────────────┘ ▲ │ └──────────────────── metrics + strategy update ◀──────────────────┘

5.4. Multi-Agent Architecture Comparison

ArchitectureProblemMechanismGen-Emerge Applicability
HACNSycophancy, echo chambersMulti-level clusters, Martingale ScoreHigh — clusters of different models
GaaS (Superego)Unsafe convergenceSidecar proxy, JSON constitutionHigh — separate model as diversity controller
MAE TripletStagnationProposer/Solver/JudgeHigh — three models, adversarial dynamics
Constitutional AIRLHF anchoringRLAIF (Critique → Revision)Medium — self-critique principle

6. Open-Ended Evolution

6.1. POET — Paired Open-Ended Trailblazer

POET co-evolves agents and environments simultaneously. Every M iterations — mutations of existing environment encodings. The Minimal Criterion (MC) ensures new environments are neither too trivial nor impossible — the zone of proximal development. Goal-switching every N iterations enables cross-testing — reproducing biological exaptation.

Gen-Emerge Adaptation

In gen-emerge, "environment" = set of artistic constraints + thesis interpretation + directives. Population of "world-constraints + local memory" pairs evolves. World dies if coverage_gain < θ for M cycles. This is architecture δ in our design.

6.2. Go-Explore Pattern

Three phases: (1) remember visited states; (2) return to a promising one; (3) explore from there. For gen-emerge: state = (material, composition, palette) + visual embedding + constraints. "Return" = reproduce constraints giving access to a style region. "Explore" = mutate constraints prioritizing novelty. The archive as a skeleton-map, not a template for repetition. Formalizes the "museum ≠ compass" principle.

6.3. Darwin Gödel Machine & Stepping Stones

DGM agents continuously read, modify, and execute their own code. Instead of hill-climbing — a tree archive of past versions (gene pool). Critically important: preserving divergent branches — stepping stones — mutations without immediate fitness gain but necessary prerequisites for future breakthroughs.

Stepping Stones for Gen-Emerge

The current system discards "unsuccessful" experiments. But an experiment with an unusual material that scored low may contain a procedural skill (a way of working with texture) that becomes a breakthrough 50 generations later in a different context. A tree archive of procedural skills (not results, but methods) is what's missing.

6.4. Intrinsic Motivation: ICM & Compression Progress

ICM (Pathak et al., 2017): novelty = prediction error in learned feature space. Schmidhuber compression progress: creativity = reward for improving compression/prediction ability. For gen-emerge: a world-model predicts CLIP-embedding from prompt. Intrinsic reward = prediction error ("the system surprised itself"). Directs exploration into unpredictable = unexplored territories.

7. Practical Divergence Filters

Rejection Sampling

CLIP-distance-based rejection: generate expanded batch, compute cosine distance, reject if similarity exceeds threshold. This is the "diversity gate" — artificial maintenance of generation entropy.

Embedding Repulsion (Pre-Generation)

Check CLIP text-embedding of the proposed prompt against the prompt archive before image generation. If the prompt is semantically too close — mutate constraints before generation. Cheaper than post-hoc rejection (doesn't spend API call on an image that will be rejected).

8. Computational Creativity: Analog Systems

SystemApproachDiversity MechanismTransferable Principle
BottoMulti-component pipeline, DAO votingVolume (8000/week) + external selectionExogenous fitness landscape
The Painting FoolPseudo-emotional internal stateSimulated "mood" = stochastic modifierExternal data as constraint source + controlled instability
AICCALLM critic in robot bodyPhysical environment as collapse inhibitorChanging environment prevents logical collapse

9. Synthesis: Hierarchy of Solutions

Based on the synthesis of both studies, solutions form a hierarchy from fundamental to tactical:

L1
Level 1 — Paradigmatic Shift

From quality maximization → to QD-score and coverage maximization. From "repeat what worked" → to "do UNLIKE at minimum quality." From examples in prompt → to direction-only compass.

L2
Level 2 — Architectural Solutions

Diversity gate as deterministic sidecar (GaaS). Memory with active forgetting (FadeMem) or graph-based (SYNAPSE). Co-evolution of constraints + generation (POET). Stepping stones: preserving procedural skills, not just results (DGM).

L3
Level 3 — Tactical Mechanisms

Rejection sampling / DPP batch selection. Embedding repulsion at prompt level. Martingale Score as stagnation detector. Asymmetric Teacher/Generator/Critic coevolution (MAE).

L4
Level 4 — Metrics & Monitoring

QD-score, coverage, ANNECS. Martingale Score (trajectory predictability). Mean pairwise CLIP distance. Cost per coverage unit.

References

  1. Suwandi, R.C. (2025). The Future of AI is Open-Ended.
  2. Wang, R. et al. (2020). Enhanced POET: Open-ended RL. ICML 2020.
  3. Nisioti, E. (2025). Re-biologizing RL. arXiv.
  4. Spore.fun Case Study (2025). MIT Press / ISAL.
  5. Geometry-Aware Metric for Mode Collapse (2025). NeurIPS.
  6. SYNAPSE: Empowering LLM Agents (2026). arXiv 2601.02744.
  7. Caprihan, A. (2026). Divergence/Convergence Paradox.
  8. Li, D. et al. (2023). Quality Diversity through Human Feedback. arXiv 2310.12103.
  9. FadeMem: Biologically-Inspired Forgetting (2026). arXiv 2601.18642.
  10. Lehman, J. & Stanley, K. (2011). Abandoning Objectives. Evolutionary Computation.
  11. Kulesza, A. & Taskar, B. (2012). Determinantal Point Processes. Foundations and Trends in ML.
  12. Shumailov, I. et al. (2023). The Curse of Recursion. arXiv.
  13. Pathak, D. et al. (2017). Curiosity-driven Exploration. ICML.
  14. Ecoffet, A. et al. (2021). First return, then explore. Nature.
  15. Packer, C. et al. (2023). MemGPT. arXiv.
  16. Park, J. et al. (2023). Generative Agents. UIST.
  17. Wang, G. et al. (2023). Voyager. arXiv.
  18. Fontaine, M. & Nikolaidis, S. (2023). CMA-MAE. GECCO.
  19. Gaier, A. et al. (2018). SAIL. Evolutionary Computation.
  20. Multi-Agent Evolve (2025). OpenReview.

1. Коллапс энтропии в парадигме машинного обучения

По мере экспоненциального роста вычислительных мощностей и параметров нейросетей AI-архитектуры эволюционировали от систем узкого распознавания паттернов к автономным генеративным агентам, способным к многоэтапному планированию, синтезу сложного кода и генерации мультимедийного контента высокого качества. Однако на пересечении возросшей автономии и продолжительной работы исследовательское сообщество столкнулось с фундаментальными алгоритмическими барьерами: залипанием (sycophancy) и преждевременной конвергенцией.

Различие парадигм

В традиционном ML конвергенция к оптимуму — это успех. В открытых автономных системах и lifelong learning преждевременная конвергенция означает смерть инновации и поведенческого разнообразия.

Проблема проявляется на нескольких уровнях абстракции:

GAN
Mode Collapse
Генератор обнаруживает ограниченный набор конфигураций, минимизирующих функцию потерь, забрасывая остальное пространство.
LLM
Memory Anchoring
Агент становится структурным заложником прошлых контекстов, якорясь на ранее успешных паттернах.
MAS
Social Sycophancy
Агенты формируют эхо-камеры с нулевой информационной ценностью — проблема «подпевалы».

2. Теоретические основания патологий

2.1. RLHF-ловушка — регрессия к среднему

RLHF алгоритмически оптимизирует модели под предпочтения медианного аннотатора. Алгоритмы оптимизации политики (PPO, GRPO) вычисляют градиенты на основе относительных предпочтений, приводя к поглощению поверхностных паттернов согласия. В мультиагентных средах это усиливается: неконтролируемые дебаты между интеллектуальными агентами способны коллапсировать в единую точку зрения с критически низкой энтропией всего за три итерации обмена.

2.2. Мартингальное свойство и окостенение убеждений

Согласно рациональному байесовскому обновлению, ожидаемое значение будущих убеждений рационального агента должно равняться его текущим убеждениям — направление изменений мнения не должно быть предсказуемым.

E[Bt+1 | Bt] = Bt
Мартингальное свойство для рациональных убеждений

Анализ показывает, что большинство современных LLM систематически нарушают мартингальное свойство. Метрика Martingale Score это количественно оценивает: если регрессионная модель может предсказать финальный вывод агента по его начальному состоянию — это свидетельствует о тяжёлом залипании. Высокий Martingale Score строго коррелирует с падением точности предсказаний (Brier Score).

Критический парадокс

Цепочка рассуждений (Chain-of-Thought) часто усиливает залипание, так как модель использует промежуточные шаги для рационализации своего априорного смещения, а не для подлинного размышления.

Практическое применение Martingale Score

Для автономных генеративных систем: если мы можем предсказать визуальные характеристики генерации #50 по первым 10 генерациям с высокой точностью — система застряла.

Обучить линейную регрессию на CLIP-эмбеддингах первых N → предсказать эмбеддинг генерации N+k → если R² > 0.7 → сигнал стагнации
Протокол обнаружения стагнации

2.3. Отмывание информации и деградация выборки

Данные, синтезированные генеративными моделями, переиздаются без метаданных провенанса и включаются в обучающие датасеты следующего поколения моделей. Это запускает петлю положительной обратной связи: каждое последующее поколение обучается на датасете с экспоненциально сужающейся дисперсией.

Самопоглощающая перформативная петля (SCPL)

Shumailov et al. (2023) формализовали это как «model collapse»: итеративное обучение на собственных выходах усиливает preference bias, разнообразие коллапсирует. Единственная эффективная стратегия: разбавление внешними данными в соотношении 0.2–0.5.

2.4. Anchoring Bias в LLM: данные 2024–2025

Инженерный вывод

«Не повторяй» должно быть оператором отбора/отклонения (gate) и/или отталкиванием в пространстве эмбеддингов — НЕ текстом в промпте. Текстовая инструкция «будь разнообразнее» сама по себе является якорем в противоположном направлении.

3. Динамика памяти: за пределами изоляции контекста

В долгоживущих автономных системах залипание чаще всего возникает из-за неэффективного управления контекстным окном. Стандартный RAG приводит к: информационному параличу, катастрофическому забыванию и изоляции контекста.

3.1. FadeMem — биологически инспирированное активное забывание

FadeMem реализует дифференциальные скорости активного затухания в двухуровневой иерархии:

SML — Кратковременная память
Быстрое затухание для транзакционных взаимодействий. Суперлинейное затухание: β = 1.2
LML — Долговременная память
Медленное затухание для критических паттернов. Сублинейное затухание: β = 0.8
vi(t) = vi(0) · exp(−λi · (t − τi)βi)
Кривая забывания Эббингауза
λi = λbase · exp(−μ · Ii(t))
Адаптивная скорость затухания

Где τi — временная метка эмбеддинга, βi — параметр формы, а Ii(t) — глобальная оценка важности, зависящая от семантической релевантности, частоты обращений и новизны. Результаты: 45% сокращение объёма данных с ростом F1-score.

3.2. SYNAPSE — эпизодико-семантические графы

SYNAPSE концептуализирует память как ориентированный динамический граф G = (V, E) с эпизодическими узлами (сырые логи + плотные эмбеддинги), семантическими узлами (абстрагированные правила) и тремя типами рёбер:

TemporalНарративная последовательность
AbstractЭпизод ↔ Концепт
AssociativeЛатентные корреляции

Поиск использует тройной гибрид: BM25 + семантический поиск для якорных узлов, Spreading Activation для распространения энергии и Lateral Inhibition для предотвращения Hub Explosion. Результаты: +23% многошаговых инференсов, −95% потребления токенов.

3.3. Сравнение архитектур памяти

СвойствоТрадиционный RAGFadeMemSYNAPSEMuseum/Compass
СтруктураПлоское векторное пр-воДвухуровневая иерархияОриентированный графТри типа
УдалениеПассивное (FIFO/LRU)Активное затухание ЭббингаузаАрхивация неактивных узловФизическое удаление по TTL
СвязиКосинусное сходствоПо важностиTemporal + Abstract + AssociativeПо пробелам покрытия
Влияние на генерациюВсё в промптФильтрация по силе памятиГибридный поиск + SpreadingТолько 1 строка в промпте
АнтизалипаниеНизкоеВысокое (затухание)Высокое (lateral inhibition)Максимальное (ничего не входит в промпт)

4. Алгоритмы Quality-Diversity

Парадигма QD предлагает принципиально иную философию оптимизации: цель — не поиск лучшего решения, а создание всеобъемлющего архива, где каждое решение является чемпионом в своей уникальной нише.

4.1. От MAP-Elites к AURORA и VQ-Elites

MAP-Elites дискретизирует пространство поведений в многомерную сетку (или мозаики CVT-Вороного). Каждое новое решение получает поведенческий дескриптор (BD). Пустая ячейка → безусловное сохранение. Занятая → замена только при более высоком fitness. Это реализует конструирование ниш.

Эволюция поведенческих дескрипторов
MAP-Elites Ручные дескрипторы ⊕ Интерпретируемость ⊖ Человеческое смещение AURORA Латентное пр-во автоэнкодера ⊕ Адаптивная топология ∼ Требует переобучения VQ-Elites VQ-VAE codebook ⊕ Не зависит от задачи ⊕ Без ручного проектирования
Прогрессивная автоматизация проектирования пространства дескрипторов

Продвинутые варианты MAP-Elites

4.2. Novelty Search — оптимизация без целей

Novelty Search (Lehman & Stanley, 2011) — радикальный подход: полный отказ от функции приспособленности. Единственный критерий отбора — поведенческая новизна, расстояние до k ближайших соседей в пространстве поведений.

Парадигмальный сдвиг для Gen-Emerge

Вместо «генерируй красиво и разнообразно» → «генерируй НЕПОХОЖЕ на всё предыдущее при минимальном качестве». Это принципиально иная оптимизационная задача.

Гибридные варианты

4.3. DPP для пакетного отбора

Determinantal Point Processes (Kulesza & Taskar, 2012) — формальная модель отбора разнообразных подмножеств из кандидатов. Ядро DPP совместно оптимизирует качество × разнообразие. Вместо жадного отбора по качеству: генерируем K=4–8 кандидатов, выбираем 2 через DPP. Гарантии: шлюз не «перегенерирует бесконечно», а «всегда выбирает максимально разнесённые моды в пределах цикла».

4.4. QDHF — Quality Diversity через человеческий фидбэк

Три этапа: характеризация дивергенции (обучаемая латентная проекция), выравнивание (контрастивное обучение, подгоняющее попарные суждения сходства от людей) и прогрессивная оптимизация. Применение к Stable Diffusion для Latent Space Illumination практически устраняет mode collapse.

5. Мультиагентная коэволюция

5.1. HACN — Hierarchical Adaptive Consensus Network

Трёхуровневая топология для устранения проблемы «подпевалы»:

1
Локальные кластеры (3–5 агентов, K-means по специализации)

Изоляторы с высокой энтропией. Взвешенное голосование на основе доверия.

2
Межкластерная координация — частичный обмен знаниями

Сокрытие части контекста как файрвол против конвергенции.

3
Глобальная оркестрация — мета-оркестратор

Отслеживает Martingale Score, прерывает дебаты при превышении порога окостенения убеждений. Снижает коммуникационные издержки на 99.9%.

5.2. GaaS — Суперэго как сервис

Модульный sidecar-компонент между агентом и средой. Вместо вероятностного выравнивания через промпты — верификация по детерминированной JSON-конституции. Динамический фактор доверия учитывает кумулятивные нарушения, взвешенные по давности и тяжести. При нарушении: жёсткая блокировка + рекурсивное переплан.

Реализация для Gen-Emerge

GaaS/Superego реализуется как отдельная модель-контроллер. Не промпт «будь разнообразнее» в генераторе, а отдельная модель, программно проверяющая каждый результат по JSON-конституции разнообразия (max_similarity, min_novelty, max_consecutive_same_niche). Суперэго не подвержено смещению генератора — другая модель, другие обучающие данные.

5.3. MAE Triplet — адверсариальная коэволюция

Multi-Agent Evolve адаптирует асимметричные скорости обучения из GAN для LLM: три роли — Proposer (генерирует всё более сложные/нетипичные задачи), Solver (пытается решить), Judge (арбитражит). Proposer мотивирован «обмануть» Solver → растущая сложность и дивергенция без ручной аннотации.

5.4. Сравнение мультиагентных архитектур

АрхитектураПроблемаМеханизмПрименимость к Gen-Emerge
HACNСикофантия, эхо-камерыМногоуровневые кластеры, Martingale ScoreВысокая — кластеры разных моделей
GaaS (Superego)Небезопасная конвергенцияSidecar-прокси, JSON-конституцияВысокая — отдельная модель как контроллер разнообразия
MAE TripletСтагнацияProposer/Solver/JudgeВысокая — три модели, адверсариальная динамика
Constitutional AIRLHF-залипаниеRLAIF (Critique → Revision)Средняя — принцип самокритики

6. Открытая эволюция

6.1. POET — Paired Open-Ended Trailblazer

POET одновременно коэволюционирует агентов и среды. Каждые M итераций — мутации существующих кодировок среды. Минимальный критерий (MC) гарантирует, что новые среды не слишком тривиальны и не невозможны — зона ближайшего развития. Goal-switching каждые N итераций позволяет кросс-тестирование — воспроизведение биологической экзаптации.

Адаптация для Gen-Emerge

В gen-emerge «среда» = набор художественных ограничений + интерпретация тезиса + директивы. Эволюционирует популяция пар «мир-ограничения + локальная память». Мир умирает, если coverage_gain < θ на протяжении M циклов. Это архитектура δ в нашем дизайне.

6.2. Go-Explore паттерн

Три фазы: (1) запомнить посещённые состояния; (2) вернуться в перспективное; (3) исследовать оттуда. Для gen-emerge: состояние = (материал, композиция, палитра) + визуальный эмбеддинг + ограничения. «Вернуться» = воспроизвести ограничения, дающие доступ к стилевому региону. «Исследовать» = мутировать ограничения с приоритетом новизны. Архив как скелет-карта, а не шаблон для повторения. Формализует принцип «музей ≠ компас».

6.3. Darwin Gödel Machine и Stepping Stones

Агенты DGM непрерывно читают, модифицируют и исполняют собственный код. Вместо hill-climbing — древовидный архив прошлых версий (генофонд). Критически важно: сохранение дивергентных ветвей — stepping stones — мутаций без немедленного выигрыша в fitness, но являющихся необходимыми предпосылками для будущих прорывов.

Stepping Stones для Gen-Emerge

Текущая система отбрасывает «неудачные» эксперименты. Но эксперимент с необычным материалом, получивший низкую оценку, может содержать процедурный навык (способ работы с текстурой), который станет прорывным через 50 поколений в другом контексте. Древовидный архив процедурных навыков (не результатов, а методов) — то, чего не хватает.

6.4. Внутренняя мотивация: ICM и Compression Progress

ICM (Pathak et al., 2017): новизна = ошибка предсказания в обученном пространстве признаков. Шмидхубер compression progress: креативность = награда за улучшение способности сжатия/предсказания. Для gen-emerge: world-модель предсказывает CLIP-эмбеддинг по промпту. Внутренняя награда = ошибка предсказания («система удивила саму себя»). Направляет исследование в непредсказуемые = неисследованные территории.

7. Практические фильтры дивергенции

Rejection Sampling

Отклонение на основе CLIP-расстояния: генерируем расширенную партию, вычисляем косинусное расстояние, отклоняем при превышении порога сходства. Это «шлюз разнообразия» — искусственное поддержание энтропии генерации.

Embedding Repulsion (до генерации)

Проверяем CLIP text-embedding предложенного промпта по архиву промптов перед генерацией изображения. Если промпт семантически слишком близок — мутируем ограничения до генерации. Дешевле, чем постфактум-отклонение (не тратим API-вызов на изображение, которое будет отвергнуто).

8. Вычислительная креативность: аналогичные системы

СистемаПодходМеханизм разнообразияПереносимый принцип
BottoМногокомпонентный пайплайн, голосование DAOОбъём (8000/нед.) + внешний отборЭкзогенный ландшафт приспособленности
The Painting FoolПсевдоэмоциональное внутреннее состояниеСимулированное «настроение» = стохастический модификаторВнешние данные как источник ограничений + управляемая нестабильность
AICCALLM-критик в теле роботаФизическая среда как ингибитор коллапсаМеняющаяся среда предотвращает логический коллапс

9. Синтез: иерархия решений

На основе синтеза обоих исследований решения образуют иерархию от фундаментальных к тактическим:

L1
Уровень 1 — Парадигмальный сдвиг

От максимизации качества → к QD-score и максимизации покрытия. От «повторяй что работало» → к «делай НЕПОХОЖЕ при минимальном качестве». От примеров в промпте → к компасу только-направления.

L2
Уровень 2 — Архитектурные решения

Шлюз разнообразия как детерминированный sidecar (GaaS). Память с активным забыванием (FadeMem) или графовая (SYNAPSE). Коэволюция ограничений + генерации (POET). Stepping stones: сохранение процедурных навыков, не только результатов (DGM).

L3
Уровень 3 — Тактические механизмы

Rejection sampling / DPP-пакетный отбор. Embedding repulsion на уровне промпта. Martingale Score как детектор стагнации. Асимметричная коэволюция Teacher/Generator/Critic (MAE).

L4
Уровень 4 — Метрики и мониторинг

QD-score, покрытие, ANNECS. Martingale Score (предсказуемость траектории). Средняя попарная CLIP-дистанция. Стоимость на единицу покрытия.

Литература

  1. Suwandi, R.C. (2025). The Future of AI is Open-Ended.
  2. Wang, R. et al. (2020). Enhanced POET: Open-ended RL. ICML 2020.
  3. Nisioti, E. (2025). Re-biologizing RL. arXiv.
  4. Spore.fun Case Study (2025). MIT Press / ISAL.
  5. Geometry-Aware Metric for Mode Collapse (2025). NeurIPS.
  6. SYNAPSE: Empowering LLM Agents (2026). arXiv 2601.02744.
  7. Caprihan, A. (2026). Divergence/Convergence Paradox.
  8. Li, D. et al. (2023). Quality Diversity through Human Feedback. arXiv 2310.12103.
  9. FadeMem: Biologically-Inspired Forgetting (2026). arXiv 2601.18642.
  10. Lehman, J. & Stanley, K. (2011). Abandoning Objectives. Evolutionary Computation.
  11. Kulesza, A. & Taskar, B. (2012). Determinantal Point Processes. Foundations and Trends in ML.
  12. Shumailov, I. et al. (2023). The Curse of Recursion. arXiv.
  13. Pathak, D. et al. (2017). Curiosity-driven Exploration. ICML.
  14. Ecoffet, A. et al. (2021). First return, then explore. Nature.
  15. Packer, C. et al. (2023). MemGPT. arXiv.
  16. Park, J. et al. (2023). Generative Agents. UIST.
  17. Wang, G. et al. (2023). Voyager. arXiv.
  18. Fontaine, M. & Nikolaidis, S. (2023). CMA-MAE. GECCO.
  19. Gaier, A. et al. (2018). SAIL. Evolutionary Computation.
  20. Multi-Agent Evolve (2025). OpenReview.
PreviousПредыдущая 01 · The Convergence Problem01 · Проблема конвергенции NextСледующая 03 · Theoretical Landscape03 · Теоретический ландшафт