Gen-emerge is an autonomous generative system for creating series of digital art. The system works cyclically: it reads the external world (news, events, context), interprets a given artistic thesis, forms a visual ontology, generates an image through LLM + image model, evaluates the result, reflects, corrects course — and repeats. Cycle after cycle, series after series.
Gen-emerge — автономная генеративная система для создания серий цифрового искусства. Система работает циклически: считывает внешний мир (новости, события, контекст), интерпретирует заданный художественный тезис, формирует визуальную онтологию, генерирует изображение через LLM + модель изображений, оценивает результат, рефлексирует, корректирует курс — и повторяет. Цикл за циклом, серия за серией.
Not a single good image, but a continuous flow of visually and conceptually diverse art, evolving over time.
Не одна хорошая картинка, а непрерывный поток визуально и концептуально разнообразного искусства, эволюционирующего со временем.
After ~2000+ generations, the system collapsed into a local optimum. Images became predictably "beautiful" and predictably identical: similar palettes, similar compositions, similar materials. The system found "what works" and stopped searching.
После 2000+ поколений система коллапсировала в локальный оптимум. Изображения стали предсказуемо «красивыми» и предсказуемо одинаковыми: похожие палитры, похожие композиции, похожие материалы. Система нашла «то, что работает» — и перестала искать.
This is not a bug of a specific implementation. This is a fundamental property of optimization systems, built into the paradigm itself.
Это не баг конкретной реализации. Это фундаментальное свойство оптимизационных систем, вшитое в саму парадигму.
The system optimizes score → converges to what maximizes score. But "best" and "diverse" are conflicting objectives. Without an explicit diversity mechanism, the system always chooses exploitation over exploration.
Prompt Result Journal, Visual Memory, Rule Supplements, Breakthrough Styles, Score History — all tell the LLM "here's what worked before." For an LLM, this is an anchor. Each channel reinforces the tendency; all 8 together form an impenetrable wall of convergence.
Text instruction "don't repeat previous works" doesn't work. Research confirms: anchoring bias is systemic across all LLMs. Show an example + say "don't do this" = show an example. LLMs anchor on content, not instruction.
Snapshot Builder collects external data but has access to the previous cycle's Creative Intent. External data is "laundered" through the lens of the established style. Provenance is violated — the system thinks it's getting fresh input, but receives a reflection of its own preferences.
The artistic thesis (e.g., "fragility of digital memory") is interpreted stereotypically by the LLM: certain colors, materials, moods. The thesis is set once per series → the entire series collapses to one interpretation.
The system has no mechanism for rejecting results too similar to previous ones. Any result that receives an acceptable score is accepted. No "diversity airlock."
Memory grows monotonically. Rules accumulate, breakthrough styles accumulate, examples accumulate. Old entries are never deleted or weakened. The LLM context gets denser with the past → less room for the new.
Система оптимизирует оценку → сходится к тому, что максимизирует оценку. Но «лучшее» и «разнообразное» — конфликтующие цели. Без явного механизма разнообразия система всегда выбирает эксплуатацию вместо исследования.
Prompt Result Journal, Visual Memory, Rule Supplements, Breakthrough Styles, Score History — все говорят LLM «вот что раньше работало». Для LLM это якорь. Каждый канал усиливает тенденцию; все 8 вместе образуют непроницаемую стену конвергенции.
Текстовая инструкция «не повторяй предыдущие работы» не работает. Исследования подтверждают: anchoring bias системен для всех LLM. Показать пример + сказать «не делай так» = показать пример. LLM якорятся на контент, не на инструкцию.
Snapshot Builder собирает внешние данные, но имеет доступ к Creative Intent предыдущего цикла. Внешние данные «отмываются» через призму устоявшегося стиля. Провенанс нарушен — система думает, что получает свежий вход, а получает отражение собственных предпочтений.
Художественный тезис (напр., «хрупкость цифровой памяти») интерпретируется LLM стереотипно: определённые цвета, материалы, настроения. Тезис задаётся один раз на серию → вся серия схлопывается в одну интерпретацию.
У системы нет механизма отклонения результатов, слишком похожих на предыдущие. Любой результат, получивший приемлемую оценку, принимается. Нет «шлюза разнообразия».
Память растёт монотонно. Правила накапливаются, прорывные стили накапливаются, примеры накапливаются. Старые записи никогда не удаляются и не ослабляются. Контекст LLM уплотняется прошлым → меньше места для нового.
The gen-emerge convergence problem is a specific case of three fundamental scientific problems:
Проблема конвергенции gen-emerge — частный случай трёх фундаментальных научных проблем:
Additionally: anchoring bias in LLMs (experimentally confirmed in 2024-2025), the RLHF trap (optimization for median annotator preferences suppresses divergence), and information laundering (generative model outputs are "laundered" and return to training).
Дополнительно: anchoring bias в LLM (экспериментально подтверждён в 2024–2025), RLHF-ловушка (оптимизация под медианного аннотатора подавляет дивергенцию) и отмывание информации (выходы генеративных моделей «отмываются» и возвращаются в обучение).
From "optimize quality" → to "maximize coverage of the space at a minimum quality threshold."
От «оптимизировать качество» → к «максимизировать покрытие пространства при минимальном пороге качества».
High score no longer means "do more like this." High score means "this is an achievement, remember it in the Museum, explore something DIFFERENT." Inversion of success semantics.
Высокая оценка больше не означает «делай ещё так же». Высокая оценка означает «это достижение, запомни в Музее, исследуй что-то ДРУГОЕ». Инверсия семантики успеха.
With access to the full spectrum of LLMs, multi-agent architectures become a fundamental strategy. Convergence of a single model is a fundamental property (anchoring bias, RLHF trap). Fighting it through gates and constraints is mitigation. Using different models with different biases is eliminating the cause.
Имея доступ ко всему спектру LLM, мультиагентные архитектуры становятся фундаментальной стратегией. Конвергенция одной модели — фундаментальное свойство (anchoring bias, RLHF-ловушка). Бороться с ней гейтами и ограничениями — это митигация. Использовать разные модели с разными смещениями — это устранение причины.
| # | Solution | Addresses Root Cause |
|---|---|---|
| B1 | Score semantics: museum + taboo pressure | #1, #6 |
| B2 | Compass-only in LLM context (1 line direction, no examples) | #2, #3 |
| B3 | Provenance: Snapshot isolated from creative state | #4 |
| B4 | FadeMem aging for all memory entities (Ebbinghaus curve) | #7 |
| B5 | Museum / Map separation (achievement archive ≠ working memory) | #2, #3 |
| B6 | QD-score and coverage as primary metrics | #1 |
| B7 | Dual fingerprint (palette + semantic embedding) | #5, #6 |
| B8 | Human async, never blocking | — |
| B9 | Martingale Score as stagnation detector | #1, #2 |
| B10 | Diversity gate as deterministic sidecar (not a prompt) | #3, #6 |
| B11 | Stepping stones archive (procedural skills stored even at low score) | #1 |
| B12 | Role-model separation (different models for different roles) | #2, #3 |
| B13 | Information barriers (agents don't see each other's reasoning) | #2 |
| # | Решение | Корневая причина |
|---|---|---|
| B1 | Семантика оценки: музей + табу-давление | #1, #6 |
| B2 | Только компас в контексте LLM (1 строка направления, без примеров) | #2, #3 |
| B3 | Провенанс: Snapshot изолирован от креативного состояния | #4 |
| B4 | FadeMem-старение для всех сущностей памяти (кривая Эббингауза) | #7 |
| B5 | Разделение Музей / Карта (архив достижений ≠ рабочая память) | #2, #3 |
| B6 | QD-score и покрытие как основные метрики | #1 |
| B7 | Двойной отпечаток (палитра + семантический эмбеддинг) | #5, #6 |
| B8 | Human async, никогда не блокирует | — |
| B9 | Мартингальная оценка как детектор стагнации | #1, #2 |
| B10 | Шлюз разнообразия как детерминированный sidecar (не промпт) | #3, #6 |
| B11 | Архив stepping stones (процедурные навыки сохраняются даже при низкой оценке) | #1 |
| B12 | Разделение роль-модель (разные модели для разных ролей) | #2, #3 |
| B13 | Информационные барьеры (агенты не видят рассуждений друг друга) | #2 |
| Architecture | Concept | Diversity Source | Cost |
|---|---|---|---|
| α Linear+Gate | Single stream, single model, hard gate | Post-hoc rejection | ~1.5× |
| β Batch+DPP | Single stream, K candidates, DPP selection | Post-hoc selection | ~K× |
| γ Islands | N parallel streams with different constraints | Structural isolation | ~N× |
| δ POET Coevolution | Co-evolution of worlds (constraint environments) and generation | Emergent | ~N× |
| ε MAE Triplet | Three different models: Proposer / Generator / Judge | Adversarial + role separation | ~3× |
| η Multi-Gen Ensemble | N different models generate from same constraints | Natural model bias divergence | ~N× |
| θ HACN Clusters | Clusters of different models, partial sharing, Superego | Architecture + adversarial + isolation | ~(N×M+2)× |
| Архитектура | Концепция | Источник разнообразия | Стоимость |
|---|---|---|---|
| α Linear+Gate | Один поток, одна модель, жёсткий шлюз | Пост-фактум отклонение | ~1.5× |
| β Batch+DPP | Один поток, K кандидатов, DPP-отбор | Пост-фактум отбор | ~K× |
| γ Islands | N параллельных потоков с разными ограничениями | Структурная изоляция | ~N× |
| δ POET Coevolution | Коэволюция миров (среды ограничений) и генерации | Эмерджентная | ~N× |
| ε MAE Triplet | Три разные модели: Proposer / Generator / Judge | Адверсариальная + разделение ролей | ~3× |
| η Multi-Gen Ensemble | N разных моделей генерируют из одних ограничений | Естественная дивергенция смещений моделей | ~N× |
| θ HACN Clusters | Кластеры разных моделей, частичный обмен, Superego | Архитектура + адверсариальная + изоляция | ~(N×M+2)× |
It is hypothesized that a heterogeneous multi-agent architecture — in which distinct generative models are assigned specialized roles within a shared pipeline — will produce a statistically broader distribution of visual and conceptual outputs than any single-model architecture of equivalent computational cost.
Выдвигается гипотеза о том, что гетерогенная мультиагентная архитектура — в которой различным генеративным моделям отводятся специализированные роли в рамках единого пайплайна — будет порождать статистически более широкое распределение визуальных и концептуальных результатов, чем любая одномодельная архитектура эквивалентной вычислительной стоимости.
The convergence observed in single-model systems is attributable to the inherent structure of large language models: each model's latent space encodes a characteristic distribution of aesthetic preferences, compositional biases, and stylistic attractors. This convergence is not a deficiency to be corrected but an intrinsic property of the architecture. Accordingly, the proposed approach is not to counteract convergence within a single model but to exploit the divergence between models by orchestrating multiple heterogeneous agents.
Конвергенция, наблюдаемая в одномодельных системах, обусловлена внутренней структурой больших языковых моделей: латентное пространство каждой модели кодирует характерное распределение эстетических предпочтений, композиционных смещений и стилистических аттракторов. Данная конвергенция является не дефектом, подлежащим исправлению, а неотъемлемым свойством архитектуры. Соответственно, предлагаемый подход состоит не в противодействии конвергенции внутри одной модели, а в использовании дивергенции между моделями посредством оркестрации множества гетерогенных агентов.
Coverage is defined as the volume of the convex hull in a standardized embedding space (CLIP ViT-L/14) occupied by a generation series. Cost-normalized coverage (coverage per unit of API expenditure) serves as the primary comparative metric.
Покрытие определяется как объём выпуклой оболочки в стандартизированном пространстве эмбеддингов (CLIP ViT-L/14), занимаемой серией генераций. Стоимостно-нормализованное покрытие (покрытие на единицу расхода API) выступает в качестве основной сравнительной метрики.
This brief is part of a three-document research package:
Этот бриф — часть пакета из трёх исследовательских документов: