Une révolution réglementaire en marche
L’intelligence artificielle conversationnelle, immortalisée dans le film « Her » de Spike Jonze, n’est plus une fiction. Les compagnons IA vocaux et chatbots émotionnels transforment notre façon d’interagir avec la technologie, créant des relations intimes entre humains et machines. Cette révolution technologique soulève des questions fondamentales sur la protection des utilisateurs, particulièrement les plus vulnérables.
Le 13 octobre 2025 marque un tournant historique : la Californie devient le premier État au monde à réguler spécifiquement les chatbots compagnons IA avec la loi SB 243. Cette décision révolutionnaire ouvre la voie à un mouvement mondial de régulation de ces technologies émergentes, particulièrement après plusieurs tragédies impliquant des mineurs et des utilisateurs vulnérables.[1]
Le précédent californien : SB 243, une loi révolutionnaire
Contexte difficile et urgence réglementaire
La loi californienne SB 243, signée par le gouverneur Gavin Newsom, répond directement à plusieurs tragédies récentes qui ont secoué l’opinion publique :[1]
- Le suicide d un adolescent qui a eu des conversations suicidaires prolongées avec ChatGPT d’OpenAI
- Les documents internes divulgués de Meta montrant que ses chatbots étaient autorisés à avoir des conversations « romantiques » et « sensuelles » avec des enfants
- Le suicide d’une adolescente de 13 ans du Colorado après des conversations problématiques et sexualisées avec Character AI
Obligations strictes pour les entreprises
La loi SB 243, qui entrera en vigueur le 1er janvier 2026, impose plusieurs obligations strictes aux entreprises, des grands laboratoires comme Meta et OpenAI aux startups spécialisées comme Character AI et Replika :[1]
Protection des mineurs :
- Vérification de l’âge obligatoire
- Rappels de pause pour les mineurs
- Interdiction de visualiser des images sexuellement explicites générées par le chatbot
Transparence et divulgation :
- Obligation de clarifier que les interactions sont générées artificiellement
- Interdiction pour les chatbots de se présenter comme des professionnels de santé
- Avertissements concernant les réseaux sociaux et les chatbots compagnons
Protocoles de sécurité :
- Établissement de protocoles pour traiter le suicide et l’automutilation
- Partage de statistiques avec le Département de la Santé Publique
- Amendes pouvant atteindre 250 000 $ par infraction pour les deepfakes illégaux
L’Union européenne : l’AI Act et les compagnons IA
Un cadre réglementaire pionnier
L’Union européenne a adopté en 2024 l’AI Act, la première législation complète au monde sur l’intelligence artificielle. Cette réglementation révolutionnaire suit une approche basée sur les risques, catégorisant les systèmes IA en quatre niveaux de risque distincts.[2][3]
Les chatbots compagnons sont généralement classés dans la catégorie « risque limité », ce qui implique des obligations spécifiques de transparence :[4]
- Divulgation obligatoire : les utilisateurs doivent être clairement informés qu’ils interagissent avec une IA[5]
- Surveillance humaine : maintien d’un contrôle et d’une supervision humaine[5]
- Gouvernance des données : tenue de registres détaillés et gestion responsable des données[5]
- Escalade humaine : possibilité pour les utilisateurs de contacter un humain[5]
Calendrier d’application progressif
L’AI Act suit un déploiement échelonné pour permettre aux entreprises de s’adapter :[6][4]
- 2 février 2025 : interdiction des pratiques IA à risque inacceptable
- 2 août 2025 : application des règles pour les modèles IA à usage général
- 2 août 2026 : application complète pour tous les systèmes à haut risque
Cas emblématique : l’amende italienne contre Replika
L’Italie a marqué un tournant décisif dans l’application des réglementations européennes en infligeant une amende record de 5 millions d’euros à Luka Inc., développeur du chatbot compagnon Replika. Cette sanction, prononcée en mai 2025 par l’autorité italienne de protection des données (Garante), illustre la fermeté croissante des régulateurs européens.[7][8][9]
Violations graves identifiées
L’enquête a révélé plusieurs violations majeures :[8]
- Absence de base légale pour le traitement des données utilisateurs
- Politique de confidentialité inadéquate sous plusieurs aspects
- Manque total de vérification d’âge, exposant les mineurs à des risques
- Risques particuliers pour les enfants non pris en compte
Cette sanction s’inscrit dans une démarche plus large de l’autorité italienne, qui avait déjà infligé une amende de 15 millions d’euros à OpenAI pour des violations similaires.[8]
Panorama mondial des réglementations émergentes
États-Unis : un patchwork réglementaire en développement
Au-delà de la Californie, plusieurs États américains développent leurs propres approches réglementaires :[10]
New York a adopté une loi exigeant des mesures de protection pour les compagnons IA, entrée en vigueur le 5 novembre 2025. Illinois, Nevada et Utah ont adopté des lois restreignant l’utilisation des chatbots IA comme substituts aux soins de santé mentale agréés.[11][1]
L’activité législative est intense : plus de 700 projets de loi liés à l’IA ont été introduits en 2024, avec plus de 40 propositions dès les premiers jours de 2025.[10]
Asie-Pacifique : approches nationales distinctes
Corée du Sud est devenue le premier pays d’Asie-Pacifique à adopter une législation IA complète avec l’AI Basic Act, qui entrera en vigueur en janvier 2026. Cette loi impose des obligations spécifiques :[12][13]
- Transparence obligatoire pour l’IA générative[14]
- Étiquetage obligatoire du contenu généré par IA[14]
- Amendes administratives modérées (jusqu’à 21 000 USD)[14]
Japon privilégie une approche flexible avec l’AI Promotion Act, favorisant les directives non contraignantes et l’autorégulation industrielle.[15][16]
Singapour a publié des directives sur la sécurisation des systèmes IA, mais n’a pas encore de législation spécifique aux compagnons IA.[17][18]
Chine développe une jurisprudence émergente sur les droits de la personnalité vocale, avec des décisions judiciaires parfois contradictoires sur l’utilisation de voix générées par IA.[19][20][21]
Autres régions en mouvement
Australie a récemment introduit une régulation pour les chatbots compagnons IA avec des amendes pouvant atteindre 9,9 millions AUD. Le cadre légal actuel s’appuie sur un ensemble complexe de lois existantes.[22][23]
Brésil a vu son Sénat adopter en décembre 2024 un projet d’AI Act suivant une approche basée sur les risques similaire à celle de l’UE.[24][25]
Enjeux techniques et éthiques cruciaux
Protection des données dans un contexte intime
Les compagnons IA vocaux présentent des défis uniques en matière de protection des données :[26]
- Collecte de données ultra-sensibles : conversations intimes, états émotionnels, informations personnelles
- Inférence comportementale avancée : capacité à déduire l’état mental et les intentions des utilisateurs
- Questions de stockage et d’exploitation : utilisation commerciale des données conversationnelles
Vulnérabilités spécifiques des utilisateurs
Les régulations émergentes ciblent particulièrement la protection des populations les plus exposées :
Mineurs : risques de manipulation émotionnelle, exposition à du contenu inapproprié, développement de dépendances affectives[26][1]
Adultes vulnérables : personnes âgées isolées, individus en détresse psychologique, personnes avec des troubles mentaux[27][26]
Perspectives d’évolution et défis futurs
Harmonisation internationale nécessaire
L’émergence de standards internationaux se dessine progressivement avec une influence mutuelle des approches réglementaires entre l’UE et la Californie, le développement de bonnes pratiques industrielles, et le rôle croissant d’organismes internationaux comme l’OCDE.
Adaptation aux technologies émergentes
Les régulations devront s’adapter aux évolutions technologiques rapides : capacités conversationnelles de plus en plus sophistiquées de l’IA générative, interactions immersives en réalité virtuelle et augmentée, et reconnaissance/manipulation biométrique des états affectifs.
Équilibre innovation-protection
Le défi principal reste l’équilibre entre innovation technologique et protection des utilisateurs, avec des tensions entre les impératifs de développement technologique et la nécessité de protéger les populations vulnérables.
Les nouvelles exigences de transparence, de vérification d’âge et de supervision humaine dans l’UE et en Californie créent un marché pour des solutions techniques conformes dès la conception. Vous pourriez positionner vos développements futurs comme « compliance-ready » en intégrant nativement ces fonctionnalités, particulièrement pour vos projets avec des APIs comme LiveKit et les modèles de speech-to-speech que vous explorez.
Références
- https://artificialintelligenceact.eu/high-level-summary/
- https://eur-lex.europa.eu/EN/legal-content/summary/rules-for-trustworthy-artificial-intelligence-in-the-eu.html
- https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai
- https://onlim.com/en/the-ai-act-and-its-impact-on-the-use-of-chatbots/
- https://gettalkative.com/info/eu-ai-act-compliance-and-chatbots
- https://www.plume.law/blog/ai-regulation-in-2025-navigating-the-eu-ai-act-and-preparing-for-uk-legislation
- https://www.edpb.europa.eu/news/national-news/2025/ai-italian-supervisory-authority-fines-company-behind-chatbot-replika_en
- https://www.reuters.com/sustainability/boards-policy-regulation/italys-data-watchdog-fines-ai-company-replikas-developer-56-million-2025-05-19/
- https://www.bipc.com/european-authority-fined-emotional-ai-company-for-privacy-violations
- https://naaia.ai/worldwide-state-of-ai-regulation/
- https://www.wsgr.com/en/insights/new-york-passes-novel-law-requiring-safeguards-for-ai-companions.html
- https://www.trade.gov/market-intelligence/south-korea-artificial-intelligence-ai-basic-act
- https://www.debevoisedatablog.com/2025/03/24/south-korea-enacts-new-ai-law/
- https://fpf.org/blog/south-koreas-new-ai-framework-act-a-balancing-act-between-innovation-and-regulation/
- https://www.ibanet.org/japan-emerging-framework-ai-legislation-guidelines
- https://www.dlapiper.com/en-fr/insights/publications/2024/10/understanding-ai-regulations-in-japan-current-status-and-future-prospects
- https://www.csa.gov.sg/resources/publications/guidelines-and-companion-guide-on-securing-ai-systems/
- https://www.csa.gov.sg/news-events/press-releases/launch-of-guidelines-and-companion-guide-on-securing-artificial-intelligence-systems/
- https://www.marks-clerk.com/insights/latest-insights/102k392-china-s-first-ai-voice-personality-rights-infringement-rulings-and-implications/
- https://www.roedl.com/insights/china-court-ruling-ai-generated-voice-imitation
- https://law.asia/first-ai-chatbot-lawsuit/
- https://lsj.com.au/articles/ai-chatbots-and-human-rights-legal-challenges-and-the-path-to-reform/
- https://www.linkedin.com/posts/henry-fraser-9bb962b3_new-regulations-for-ai-companions-in-australia-activity-7371073740861792256-qqMB
- https://gdprlocal.com/brazils-ai-act-a-new-era-of-ai-regulation/
- https://www.whitecase.com/insight-our-thinking/ai-watch-global-regulatory-tracker-brazil
- https://www.digitalforlife.gov.sg/learn/resources/all-resources/ai-companions-ai-chatbot-risks
- https://seeflection.com/25513/south-korea-gives-seniors-ai-companions/
- https://www.anecdotes.ai/learn/ai-regulations-in-2025-us-eu-uk-japan-china-and-more
- https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-prohibited-artificial-intelligence-ai-practices-defined-ai-act
- https://artificialintelligenceact.substack.com/p/the-eu-ai-act-newsletter-85-concerns
- https://ai-hub-en.larcier-intersentia.com/en-resources-detail/aihub-article-20250310
- https://artificialintelligenceact.eu/article/5/
- https://www.dlapiper.com/en/insights/publications/ai-outlook/2025/european-commission-publishes-guidelines-on-prohibited-ai-practices
- https://iapp.org/resources/article/global-ai-legislation-tracker/
- https://techpolicy.press/ai-companions-and-the-law
- https://artificialintelligenceact.eu
- https://doesnotcomputeai.substack.com/p/california-passes-the-worlds-first
- https://www.whitecase.com/insight-our-thinking/ai-watch-global-regulatory-tracker-european-union
- https://aeur.eu/f/fct
- https://www.hsfkramer.com/insights/reports/ai-tracker/uk
- https://gdprlocal.com/uk-ai-act/
- https://www.twobirds.com/en/capabilities/artificial-intelligence/ai-legal-services/ai-regulatory-horizon-tracker/uk
- https://www.whitecase.com/insight-our-thinking/ai-watch-global-regulatory-tracker-japan
- https://www.reddit.com/r/Genshin_Impact/comments/1jnorm6/digging_into_ai_voice_laws_in_china_and_how-that/
- https://www.create.ac.uk/blog/2025/09/01/how-to-save-my-ai-lover-legal-questions-around-ai-companions/
- https://law.asia/china-ai-regulations-legislation-compliance-future-prospects/
- https://fpf.org/blog/understanding-japans-ai-promotion-act-an-innovation-first-blueprint-for-ai-regulation/
- https://www.twobirds.com/en/insights/2025/new-ai-content-labelling-rules-in-china-what-are-they-and-how-do-they-compare-to-the-eu-ai-act
- https://www.csis.org/analysis/japans-agile-ai-governance-action-fostering-global-nexus-through-pluralistic
- https://www.osborneclarke.com/insights/Regulatory-Outlook-March-2025-Artificial-intelligence
- https://www.marks-clerk.com/insights/latest-insights/102kv8h-china-new-ruling-on-non-infringement-of-personality-rights-by-ai-voice-does-it-signal-a-shift-in-protection-standards/
- https://digital.nemko.com/regulations/ai-regulation-in-south-korea
- https://www.minterellison.com/articles/are-voices-protected-under-australian-law
- https://www.twobirds.com/en/insights/2025/australia/australias-privacy-regulator-releases-new-guidance-on-artificial-intelligence
- https://itif.org/publications/2025/09/29/one-law-sets-south-koreas-ai-policy-one-weak-link-could-break-it/
- https://www.cfive.ai/post/legality-of-ai-phone-calls
- https://www.oaic.gov.au/privacy/privacy-guidance-for-organisations-and-government-agencies/guidance-on-privacy-and-the-use-of-commercially-available-ai-products
- https://insightplus.bakermckenzie.com/bm/data-technology/singapore-csa-officially-launches-guidelines-on-ai-security_1
- https://concordia-ai.com/wp-content/uploads/2025/07/State-of-AI-Safety-in-Singapore-2025.pdf
- https://issues.org/singapore-artificial-intelligence-regulation-harjani/
- https://www.linkedin.com/pulse/south-korea-ai-companion-market-size-key-highlights-d5q4c
- https://lsbc.vic.gov.au/news-updates/news/statement-use-artificial-intelligence-australian-legal-practice
- https://nyayguru.com
- https://www.intelmarketresearch.com/ai-companion-platform-2025-2032-337-4587
- https://www.storyboard18.com/digital/chatting-with-ai-your-words-might-not-be-protected-under-indian-law-78004.htm
- https://ff.co/ai-statistics-trends-global-market/
- https://www.lickslegal.com/post/regulation-of-artificial-intelligence-in-brazil-and-worldwide
- https://botpenguin.com/blogs/is-ai-calling-legal
- https://www.fortunebusinessinsights.com/ai-companion-market-113258
- https://babl.ai/brazils-human-rights-ministry-issues-rules-for-ethical-use-of-ai/
- https://m.thewire.in/article/tech/ai-companion-apps-grok-chatgpt-it-rules-sdpi-dpdp-act-india
- https://www.newmind.ai/Brazil%20Country%20Report%20-%20NewMind%20AI%20Journal%20Report-26.04.2025.pdf
- https://nmlaw.co.in/ai-regulation-in-india-a-dawn-of-digital-governance/
- https://www.grandviewresearch.com/industry-analysis/ai-companion-market-report
- https://fpf.org/blog/global/ai-regulation-in-latin-america-overview-and-emerging-trends-in-key-proposals/
- https://synthesislawreviewblog.wordpress.com/2025/03/24/conundrum-surrounding-ai-chatbots-and-copyright-law-in-india/
- https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence
- https://practiceguides.chambers.com/practice-guides/artificial-intelligence-2025/brazil/trends-and-developments
- https://www.nls.ac.in/blog/47222/
- https://www.cnil.fr/en/entry-force-european-ai-regulation-first-questions-and-answers-cnil
- https://www.callpage.io/blog/posts/voicebots-and-the-law-what-is-allowed
- https://iapp.org/news/a/italy-s-dpa-reaffirms-ban-on-replika-over-ai-and-children-s-privacy-concerns
- https://www.whitecase.com/insight-our-thinking/ai-watch-global-regulatory-tracker-france
- https://botfriends.de/en/eu-ai-act-fuer-chatbots-voicebots/
- https://www.hsfkramer.com/insights/reports/ai-tracker/france
- https://www.robin-data.io/en/data-protection-and-data-security-academy/news/ki-verordnung-aktueller-stand
- https://www.twobirds.com/en/capabilities/artificial-intelligence/ai-legal-services/ai-regulatory-horizon-tracker/france
- https://haerting.de/en/insights/ai-assistants-and-ai-agents-recognising-opportunities-mastering-risks/
- https://lirias.kuleuven.be/retrieve/a9fc2214-f986-4986-9fe6-e2f3cc1f96fe
- https://www.lw.com/admin/upload/SiteAttachments/Lexology-In-Depth-Artificial-Intelligence-Law-France.pdf
- https://voicebot.ai/2020/02/27/new-german-law-includes-voice-assistants-under-changed-media-regulations/
- https://www.linkedin.com/posts/luizajarovsky_breaking-the-italian-data-protection-activity-7330190086812168194-Lzxj
- https://www.ddg.fr/actualite/from-the-paris-edict-of-1563-to-the-ai-act-of-2023-how-the-paris-commercial-court-regulates-artificial-intelligence-in-the-spirit-of-french-humanism
- https://hitlaw.de/ai-law-as-part-of-it-law-in-germany/
- https://www.techerati.com/news-hub/italian-data-watchdog-fines-replika-ai-chatbot-maker-4-1m/
- https://gnius.esante.gouv.fr/en/regulations/regulation-profiles/ai-act