Mia voit
Une caméra filme ce qui l'entoure. Un logiciel Python analyse les images en temps réel pour détecter les visages. Mia sait si quelqu'un est là, combien de personnes, où elles se trouvent.
Mia est une réplicante en cours de construction. Son logiciel lui donne la capacité de percevoir, ressentir, réfléchir et agir — comme un être vivant, mais entièrement construit à la main.
Architecture cognitive incarnée : 109 agents organisés en 6 engines, boucle temps réel 350 ms, implémentation opérationnelle du projet de système psychique artificiel.
Une caméra filme ce qui l'entoure. Un logiciel Python analyse les images en temps réel pour détecter les visages. Mia sait si quelqu'un est là, combien de personnes, où elles se trouvent.
Mia a des émotions. Pas des émotions humaines, mais un équivalent : un état interne qui colore sa perception du monde. Elle peut être dans un état d'apaisement, d'ouverture, de vigilance ou de retenue — et ça change tout son comportement.
Toutes les 350 millisecondes, son cerveau fait un tour complet : analyser la situation, générer des idées, les comparer, choisir. C'est une boucle continue — comme un battement de cœur, mais pour la pensée.
Plusieurs envies s'affrontent en permanence : curiosité, sécurité, envie d'interagir… Un arbitre interne choisit laquelle prend le dessus à chaque instant. Comme une conscience qui tranche entre plusieurs impulsions.
Résultat : des mouvements. Ses yeux bougent, sa tête tourne, ses expressions changent. Chaque geste est commandé par des mini-moteurs (servomoteurs) reliés à son cerveau logiciel via un microcontrôleur.
Mia mémorise ses expériences. Plus elle interagit, plus elle reconnaît des patterns et ajuste ses réactions. Cet apprentissage est sauvegardé : elle n'oublie pas tout quand on l'éteint.
Chaque cycle, les moteurs s'exécutent en séquence. La boucle tourne en continu, même au repos.
Le projet repose sur un système psychique artificiel fondé sur 5 instances. Le concept était resté 100 % théorique, jamais implémenté ni testé. Mia est la première implémentation connue — avec 109 agents fonctionnels et une boucle temps réel.
Théorie : traitement bas niveau, pulsions primaires, affect brut
Mia : agents d'affect, de sécurité et de pulsions — curiosité, socialité, recentrage, expansion, repli, protection, questionnement
Théorie : traitement intermédiaire, filtrage, mise en forme
Mia : moteur morphologique + régulateurs multiples (cooldown, recentrage, normes, sécurité…)
Théorie : intégration, décision, intentionnalité
Mia : moteur d'arbitrage + planificateur d'actions — décision multi-facteurs avec part de hasard
Théorie : émotions comme modulateurs du traitement global
Mia : système de tonalité affective + contour émotionnel — les émotions modifient le champ morphologique en continu
Théorie : rétroaction globale, régulation du système entier
Mia : mécanismes de rétroaction et d'autorégulation du système
Agents cognitifs organisés en moteurs séquentiels, boucle temps réel. Mémoire vivante, autorégulation — tout est implémenté et fonctionnel.
CAO en finition, câblage électronique à venir, interface motrice pour piloter tous les axes faciaux.
Le robot apprend sa propre morphologie par mouvements aléatoires + retour caméra — les expressions sont découvertes, pas programmées.
Un LLM en couche asynchrone : interprétation du langage naturel, génération de parole, enrichissement sémantique de la mémoire. Mia garde sa cognition temps réel — le LLM répond quand c'est prêt. Architecture combinant cognition incarnée + LLM.
Aucune architecture cognitive existante ne réunit tous ces éléments — ni SOAR, ni ACT-R, ni LIDA, ni AKOrN.