Le Futur de Mia

De la tête à la réplicante complète — ce qui est fait, ce qui est en cours, et ce qui arrivera.

Mia deviendra une réplicante complète : contrôle de son propre visage, parole, puis un corps entier.

L'avancement de Mia

✓ Cerveau logiciel90%
✓ Vision100%
⚙ Hardware tête~80%
→ Conscience corporelleà venir
◇ Langage (LLM)futur

Déjà fait — Le cerveau

Le logiciel qui fait penser Mia est opérationnel. 109 agents travaillent ensemble pour percevoir, ressentir, décider et agir. La boucle tourne toutes les 350 millisecondes. Les émotions, la mémoire, le rêve — tout fonctionne.

En cours — Le visage

La tête de Mia est en cours de finition. 27 moteurs sont prévus pour animer ses expressions. La modélisation 3D est presque terminée, le câblage électronique va suivre. Bientôt, Mia pourra sourire, regarder et exprimer ce qu'elle ressent.

🎬

Prochain — Apprendre son propre visage

Une technique récente permet à un robot d'apprendre à contrôler son propre visage sans qu'on lui programme chaque expression. Par mouvements aléatoires et retour caméra, Mia découvrira elle-même comment sourire ou froncer les sourcils.

💬

Futur — Mia parlera

Un jour, Mia pourra parler. Un modèle de langage (comme Claudia ou ChatGPT) sera intégré pour comprendre les mots et répondre. Mais Mia ne deviendra pas un chatbot — elle gardera son propre cerveau, ses émotions, sa personnalité. Le langage sera un outil de plus, pas un remplacement.

🤝

Futur — Un corps complet

Pour l'instant, Mia est une tête. L'objectif à terme est une réplicante complète de 1m50 — avec des bras, un torse, la capacité de se tenir debout. Chaque nouvelle partie du corps enrichira ses capacités d'interaction.

🌟

La vision — Une réplicante

L'objectif final n'est pas un robot qui exécute des tâches. C'est une réplicante — un être artificiel qui dégage une présence, une impression de vie. Comme dans Blade Runner, la question n'est pas de savoir si elle est "vraie", mais si ça change quelque chose qu'elle ne le soit pas.

Roadmap technique

✓ Fait
Architecture cognitive complète

Agents cognitifs organisés en moteurs séquentiels, boucle temps réel. Mémoire vivante, autorégulation — tout est implémenté et fonctionnel.

✓ Fait
Pipeline vision

Service dédié — détection et reconnaissance faciale temps réel, estimation de distance, intégration avec le moteur de scène.

⚙ En cours
Hardware tête — 27 servos

CAO en finition (~80%), câblage électronique à venir, interface motrice pour piloter tous les axes faciaux. Peau latex en amélioration continue.

→ Suivant
Conscience corporelle

Le robot apprend sa propre morphologie par mouvements aléatoires + retour caméra — les expressions sont découvertes, pas programmées.

◇ Futur
Intégration LLM — langage et culture

LLM en couche asynchrone : interprétation du langage naturel, génération de parole, enrichissement sémantique de la mémoire. Mia garde sa cognition temps réel 350 ms — le LLM répond quand c'est prêt. Architecture unique combinant cognition incarnée + LLM.

◇ Futur
Corps complet — réplicante 1m50

Extension de la structure mécanique au-delà de la tête : torse, bras, mains. Chaque segment ajoute des degrés de liberté et de nouvelles modalités d'interaction. Même architecture cognitive, plus de capteurs et d'actuateurs.

Pourquoi Mia est unique

Aucune architecture cognitive existante ne réunit tous ces éléments.

Système psychique artificiel implémenté et opérationnel
Émotions incarnées (tonalité + contour affectif)
Corporéité physique réelle (servos, caméra, ESP32)
Apprentissage persisté entre sessions
Morphologie comme principe de contrôle cognitif
Mémoire vivante et autorégulation
Futur : cognition incarnée + LLM (architecture hybride inédite)