Déjà fait — Le cerveau
Le logiciel qui fait penser Mia est opérationnel. 109 agents travaillent ensemble pour percevoir, ressentir, décider et agir. La boucle tourne toutes les 350 millisecondes. Les émotions, la mémoire, le rêve — tout fonctionne.
De la tête à la réplicante complète — ce qui est fait, ce qui est en cours, et ce qui arrivera.
Le logiciel qui fait penser Mia est opérationnel. 109 agents travaillent ensemble pour percevoir, ressentir, décider et agir. La boucle tourne toutes les 350 millisecondes. Les émotions, la mémoire, le rêve — tout fonctionne.
La tête de Mia est en cours de finition. 27 moteurs sont prévus pour animer ses expressions. La modélisation 3D est presque terminée, le câblage électronique va suivre. Bientôt, Mia pourra sourire, regarder et exprimer ce qu'elle ressent.
Une technique récente permet à un robot d'apprendre à contrôler son propre visage sans qu'on lui programme chaque expression. Par mouvements aléatoires et retour caméra, Mia découvrira elle-même comment sourire ou froncer les sourcils.
Un jour, Mia pourra parler. Un modèle de langage (comme Claudia ou ChatGPT) sera intégré pour comprendre les mots et répondre. Mais Mia ne deviendra pas un chatbot — elle gardera son propre cerveau, ses émotions, sa personnalité. Le langage sera un outil de plus, pas un remplacement.
Pour l'instant, Mia est une tête. L'objectif à terme est une réplicante complète de 1m50 — avec des bras, un torse, la capacité de se tenir debout. Chaque nouvelle partie du corps enrichira ses capacités d'interaction.
L'objectif final n'est pas un robot qui exécute des tâches. C'est une réplicante — un être artificiel qui dégage une présence, une impression de vie. Comme dans Blade Runner, la question n'est pas de savoir si elle est "vraie", mais si ça change quelque chose qu'elle ne le soit pas.
Agents cognitifs organisés en moteurs séquentiels, boucle temps réel. Mémoire vivante, autorégulation — tout est implémenté et fonctionnel.
Service dédié — détection et reconnaissance faciale temps réel, estimation de distance, intégration avec le moteur de scène.
CAO en finition (~80%), câblage électronique à venir, interface motrice pour piloter tous les axes faciaux. Peau latex en amélioration continue.
Le robot apprend sa propre morphologie par mouvements aléatoires + retour caméra — les expressions sont découvertes, pas programmées.
LLM en couche asynchrone : interprétation du langage naturel, génération de parole, enrichissement sémantique de la mémoire. Mia garde sa cognition temps réel 350 ms — le LLM répond quand c'est prêt. Architecture unique combinant cognition incarnée + LLM.
Extension de la structure mécanique au-delà de la tête : torse, bras, mains. Chaque segment ajoute des degrés de liberté et de nouvelles modalités d'interaction. Même architecture cognitive, plus de capteurs et d'actuateurs.
Aucune architecture cognitive existante ne réunit tous ces éléments.