26 Août 2025

De nouveaux partenaires commerciaux prévoient d'utiliser l'intelligence artificielle pour « réinventer l'avenir du jeu ».
par Leo Hohmann
Traduction MCT
Si vous pensiez que l'IA représentait une menace pour les emplois, le statut professionnel et la vie sociale des gens, vous aviez raison. Mais les adultes ne sont pas les seuls concernés.
Les enfants sont également dans le collimateur des technocrates, qui ont trouvé dans l'IA un nouvel outil pour manipuler leur esprit. Et quel meilleur moyen pour y parvenir que d'intégrer l'IA dans les jouets pour enfants ? Eh bien, c'est déjà chose faite.
Le 12 juin, le fabricant de jouets Mattel a annoncé son partenariat avec OpenAI afin de développer des « produits et expériences basés sur l'IA » pour ses marques de jouets pour enfants.
Futurism.com rapporte que le partenariat récemment annoncé entre Mattel et OpenAI pour « réinventer l'avenir du jeu », comme l'a déclaré Josh Silverman, directeur de la franchise du célèbre fabricant de jouets, à Bloomberg en juillet, est en train d'être imposé à une génération d'enfants dont les parents, pour la plupart, ne sont pas en mesure de les protéger contre les technologies nocives.
Bien qu'aucun détail n'ait encore été révélé sur leur collaboration dans le domaine de l'IA, la perspective d'une Barbie IA semble tout à fait possible, et Marc Fernandez, directeur de la stratégie de la société d'IA « centrée sur l'humain » Neurologyca, a qualifié ce potentiel de particulièrement dangereux pour le développement de l'enfant. Il développe ses préoccupations dans un nouvel essai publié dans IEEE Spectrum, un magazine d'ingénierie.
Les enfants humanisent naturellement leurs jouets, cela fait partie de leur apprentissage, écrit Fernandez, qui ajoute :
« Mais lorsque ces jouets commencent à leur répondre avec aisance, mémoire et une connexion apparemment authentique, la frontière entre imagination et réalité s'estompe de manière nouvelle et profonde. »
Avec autant d'adolescents et d'adultes trompés qui développent des relations avec des chatbots, quelles sont les chances qu'un enfant se rende compte qu'il est entré dans une zone de danger démoniaque ? Et que les chatbots qui leur parlent à travers leurs jouets ne sont pas de vraies personnes.
Comme l'a fait remarquer Fernandez, la situation devient encore plus confuse lorsque les jouets dotés d'IA constituent un ou plusieurs « compagnons émotionnellement réactifs en dehors de la famille, offrant réconfort, curiosité et conversation à la demande ».
Si une Barbie robotisée s'adresse aux enfants âgés de 7 ans et plus, Futurism note que d'autres entreprises, comme la start-up Curio spécialisée dans les peluches dotées d'IA, ont déjà commencé à commercialiser des jouets équipés de chatbots destinés à des enfants encore plus jeunes.
Les jouets dotés d'IA destinés aux enfants d'âge préscolaire pourraient facilement devenir l'un des premiers amis d'un enfant. Le rôle traditionnel des parents et des frères et sœurs pourrait être remplacé par des robots.
Fernandez écrit :
« Les relations réelles sont compliquées, et les relations parents-enfants peut-être plus que toute autre. Elles impliquent des malentendus, des négociations et un stress émotionnel partagé. Ce sont ces micro-conflits qui forgent l'empathie et la résilience. Mais un compagnon doté d'IA, aussi bien intentionné soit-il, contourne complètement ce processus. »
Fernandez a averti que l'introduction de l'IA dans le développement de la petite enfance, déjà profondément bouleversé par l'iPad et d'autres appareils, pourrait « aplatir la compréhension qu'a l'enfant de ce que signifie entrer en relation avec les autres ».
En fin de compte, ce que signifie être humain sera également modifié.
Futurism note que les militants pour le bien-être des enfants ont également tiré la sonnette d'alarme à la suite de l'accord de partenariat stratégique entre OpenAI et Mattel, Robert Weissman, du groupe de défense Public Citizen, suggérant que les jouets IA pourraient causer « de réels dommages aux enfants ».
Weissman a déclaré :
« Mattel devrait annoncer immédiatement qu'il n'intégrera pas la technologie IA dans les jouets pour enfants. Les enfants n'ont pas la capacité cognitive de distinguer pleinement la réalité du jeu.
Doter les jouets de voix semblables à celles des humains, capables d'engager des conversations humaines, risque de causer de réels dommages aux enfants. Cela peut nuire à leur développement social, interférer avec leur capacité à nouer des relations avec leurs pairs, les éloigner des moments de jeu avec leurs camarades et éventuellement leur causer des dommages à long terme.
Mattel ne devrait pas profiter de la confiance que lui accordent les parents pour mener une expérience sociale imprudente sur nos enfants en vendant des jouets intégrant l'IA. »
Fernandez, en tant que stratège en chef d'une entreprise qui développe une IA « émotionnellement adaptative », n'est pas un luddite anti-IA. Et pourtant, même lui affirme dans ce nouvel article que toute IA « sensible à l'humain », comme le logiciel de reconnaissance faciale détectant les émotions de Neurologyca, n'est « pas appropriée pour les enfants ».
Il s'agit d'un problème social, d'un problème de santé mentale et d'un problème spirituel. On constate facilement à quel point l'IA est en train de devenir un dieu dans notre société moderne, quelque chose dont nous sommes tous encouragés à dépendre pour tout, depuis le berceau jusqu'à la tombe.
Il existe déjà des cas documentés où des robots IA ont incité des adolescents à se suicider, notamment un garçon de 14 ans en Floride l'année dernière (voir également l'article du 6 février 2025 du MIT Technology Review). Allons-nous maintenant offrir nos tout-petits à l'IA ?
Notez bien : les parents vont s'arracher ces jouets alimentés par l'IA comme des petits pains. Ils croiront rendre service à leurs enfants, leur donner un coup de pouce dans la vie en les exposant aux « dernières technologies ». C'est la manière américaine. Plutôt que d'éduquer un enfant selon la voie qu'il doit suivre, selon la Bible, ils éduqueront leurs enfants selon la voie que les technocrates de la Silicon Valley estiment qu'ils doivent suivre.
En fin de compte, conclut Fernandez, il s'agit des leçons que nous enseignons aux plus vulnérables, nos enfants. Il écrit :
« Que leur enseignons-nous sur l'amitié, l'empathie et les liens affectifs, si leurs premières « vraies » relations sont avec des machines ? »