🌀 RLM — Recursive & Recurrent Language Models
Dernière mise à jour : 01/05/2026 à 03:32 UTC
Veille sur les alternatives récurrentes aux Transformers : RWKV, Mamba/SSM, RetNet, xLSTM, Hyena, Griffin/Hawk.
Flux RSS officiels, publications arXiv, discussions Hacker News.
Titres en anglais traduits automatiquement en vert ·
PDF = lien direct vers le preprint arXiv.
Historique : 227 article(s) sur 360 jours.
📰 Actualités du jour
RWKV Language Model
Blog officiel
Hacker News
Mamba / SSM
Blog officiel
Hacker News
Hugging Face — Séquence
Blog officiel
Hacker News
EleutherAI
Aucun article récupéré.
Google DeepMind Research
Hacker News
Publications arXiv
RWKV · Mamba · RetNet · xLSTM · Hyena · Griffin — PDF = preprint direct
OpenAlex — Publications académiques
Corpus académique indexé par OpenAlex (ResearchGate, Crossref, PubMed…)