Operational

探索强人工智能与
意识涌现的计算边界

Codon Lab 致力于通过底层架构创新,寻找通往 AGI(通用人工智能)的可行路径。 我们不满足于拟合数据,我们试图用代码重构意识产生的最小机理。

所有模型 源码仓库

Research Models

Motif V1

STABLE

Foundational Representation / Vision

Codon Motif 体系的首个验证单元。通过深度卷积与注意力机制的混合架构,实现对视觉信号的高效压缩与表征。 为后续意识模型的感知层奠定基础。

Architecture Overview

Core VQGAN-like + Attention
Positional Enc MRoPE Interleaved
Quantization LFQ (Lookup Free)
MotifV1(
(encoder): ConvBlock + ResBasicBlock
(mid_attn): SpatialMultiHeadAttention
-> rope: MRoPEInterleavedEmbedding
(quantizer): LFQ (14 -> 256)
(decoder): PixelShuffle Upsample
)

Motif M1

Multimodal Translation / Alignment

RESEARCHING

Motif M1 旨在测试视觉表征与语言符号的深层映射。 该模型将验证跨模态的通用语义空间。

Experimenting with Contrastive Loss