Comment fonctionne Mia ?

Mia est une réplicante en cours de construction. Son logiciel lui donne la capacité de percevoir, ressentir, réfléchir et agir — comme un être vivant, mais entièrement construit à la main.

Architecture cognitive incarnée : 109 agents organisés en 6 engines, boucle temps réel 350 ms, implémentation opérationnelle du projet de système psychique artificiel.

👁

Mia voit

Une caméra filme ce qui l'entoure. Un logiciel Python analyse les images en temps réel pour détecter les visages. Mia sait si quelqu'un est là, combien de personnes, où elles se trouvent.

💜

Mia ressent

Mia a des émotions. Pas des émotions humaines, mais un équivalent : un état interne qui colore sa perception du monde. Elle peut être dans un état d'apaisement, d'ouverture, de vigilance ou de retenue — et ça change tout son comportement.

🧠

Mia réfléchit

Toutes les 350 millisecondes, son cerveau fait un tour complet : analyser la situation, générer des idées, les comparer, choisir. C'est une boucle continue — comme un battement de cœur, mais pour la pensée.

Mia décide

Plusieurs envies s'affrontent en permanence : curiosité, sécurité, envie d'interagir… Un arbitre interne choisit laquelle prend le dessus à chaque instant. Comme une conscience qui tranche entre plusieurs impulsions.

🤖

Mia agit

Résultat : des mouvements. Ses yeux bougent, sa tête tourne, ses expressions changent. Chaque geste est commandé par des mini-moteurs (servomoteurs) reliés à son cerveau logiciel via un microcontrôleur.

📚

Mia apprend

Mia mémorise ses expériences. Plus elle interagit, plus elle reconnaît des patterns et ajuste ses réactions. Cet apprentissage est sauvegardé : elle n'oublie pas tout quand on l'éteint.

350msboucle cognitive
109agents cognitifs
6engines
27servos tête
24générateurs émergents

Stack technique

InterfaceTableau de bord temps réel, visualisation de la cognition
CognitionAgents cognitifs organisés en moteurs séquentiels, boucle temps réel, mémoire organisationnelle
VisionDétection & reconnaissance de visages, service dédié communiquant avec le moteur cognitif
HardwareMicrocontrôleur Wi-Fi — interface motrice, servos tête, caméra

La boucle cognitive — 350 ms

Chaque cycle, les moteurs s'exécutent en séquence. La boucle tourne en continu, même au repos.

PerceptionAgrège les perceptions (caméra, servos, état interne) en une représentation unifiée de la scène
MorphologieLes agents transforment la scène en champ morphologique — carte de tensions et d'influences
ÉmergenceFait émerger des réponses comportementales à partir des patterns détectés.
ArbitrageArbitre entre intentions concurrentes. Introduit une part de hasard contrôlé quand les intentions sont proches.
PlanificationTraduit l'intention gagnante en plan d'actions motrices et cognitives
ExécutionExécute : commandes motrices, consolidation mémoire, apprentissage

Les 5 instances du projet — implémentées dans Mia

Le projet repose sur un système psychique artificiel fondé sur 5 instances. Le concept était resté 100 % théorique, jamais implémenté ni testé. Mia est la première implémentation connue — avec 109 agents fonctionnels et une boucle temps réel.

Non-conscient

Théorie : traitement bas niveau, pulsions primaires, affect brut

Mia : agents d'affect, de sécurité et de pulsions — curiosité, socialité, recentrage, expansion, repli, protection, questionnement

Pré-conscient

Théorie : traitement intermédiaire, filtrage, mise en forme

Mia : moteur morphologique + régulateurs multiples (cooldown, recentrage, normes, sécurité…)

Conscient

Théorie : intégration, décision, intentionnalité

Mia : moteur d'arbitrage + planificateur d'actions — décision multi-facteurs avec part de hasard

Centre émotionnel

Théorie : émotions comme modulateurs du traitement global

Mia : système de tonalité affective + contour émotionnel — les émotions modifient le champ morphologique en continu

Boucle systémique

Théorie : rétroaction globale, régulation du système entier

Mia : mécanismes de rétroaction et d'autorégulation du système

Hardware — 28 servos tête

Servos faciaux

  • Yeux : 6 servos
  • Paupières : 2 servos
  • Sourcils : 4 servos
  • Sourire : 6 servos
  • Lèvres : 3 servos
  • Mâchoire : 1 servo
  • Langue : 3 servos
  • Cou : 3 servos

Microcontrôleur

  • Microcontrôleur Wi-Fi
  • Interface motrice d'abstraction
  • Communication temps réel avec le moteur cognitif

Vision

  • Caméra
  • Service dédié de détection
  • Détection + reconnaissance de visages
  • Estimation de distance

Fabrication

  • +30 kg de PLA imprimé 3D
  • Engrenages + roulements à billes
  • Peau en latex (en amélioration)
  • CAO (~80 % réalisé)

Roadmap technique

✓ Fait
Architecture cognitive du projet

Agents cognitifs organisés en moteurs séquentiels, boucle temps réel. Mémoire vivante, autorégulation — tout est implémenté et fonctionnel.

⚙ En cours
Hardware tête — 28 servos

CAO en finition, câblage électronique à venir, interface motrice pour piloter tous les axes faciaux.

→ Suivant
Conscience corporelle

Le robot apprend sa propre morphologie par mouvements aléatoires + retour caméra — les expressions sont découvertes, pas programmées.

◇ Futur
Intégration LLM — langage et culture

Un LLM en couche asynchrone : interprétation du langage naturel, génération de parole, enrichissement sémantique de la mémoire. Mia garde sa cognition temps réel — le LLM répond quand c'est prêt. Architecture combinant cognition incarnée + LLM.

Pourquoi Mia est unique

Aucune architecture cognitive existante ne réunit tous ces éléments — ni SOAR, ni ACT-R, ni LIDA, ni AKOrN.

Cognition du projet implémentée et opérationnelle
Émotions incarnées (tonalité + contour affectif)
Corporéité physique réelle (servos, caméra, microcontrôleur)
Apprentissage persisté entre sessions
Morphologie comme principe de contrôle cognitif
Mémoire vivante et autorégulation