AI Ethics, Protection des renseignements personnels

Penser l’après-crise : vers un encadrement éthique et juridique des robots d’assistance aux personnes âgées ?

robot assistance

          La crise sanitaire du Covid-19 a été l’occasion de dénoncer l’isolement des personnes âgées, mais également de démontrer l’utilisation indispensable des nouvelles technologies. Finalement, la prolongation des mesures de confinement a constitué un terrain d’expérimentation idéal pour de nombreuses applications en santé et les robots  d’assistance, tel que le robot compagnon Cutii, mis à disposition dans des maisons de retraite du Nord de la France afin de rompre avec l’isolement.

Face au vieillissement croissant de la population mondiale et aux carences du secteur médico-social en matière de capacité d’accueil et de personnel, la robotique domestique semble offrir des opportunités intéressantes entre les robots d’assistance personnelle, les robots de téléprésence, les robots compagnons. Paro, Nao, Romeo, Buddy sont autant d’exemples qui pourraient, demain, être les compagnons de vies de nos aînés pour faciliter leur maintien à domicile tout en réduisant leur isolement social. Si le techno-scepticisme a souvent tendance à rapprocher robotique et déshumanisation, force est de constater que la robotique domestique est devenu un besoin essentiel pour maintenir un lien social, indispensable pour le bien-être et la santé mentale des aînés      

A cet égard, l’Europe semble favorable au développement de ces robots compagnons, puisqu’elle soutient un projet de recherche visant à mettre au point des robots capables de venir en aide aux personnes âgées. Lancé début 2020, le projet européen SPRING (Socially Pertinent Robots in Gerontological Healthcare) a pour ambition de donner naissance à des robots d’assistance sociale capables de se mouvoir dans un environnement ouvert et de dialoguer avec plusieurs personnes. Ils pourraient, en outre, se révéler utiles à l’occasion d’une future pandémie, cela d’autant plus que des test menés avec le robot Paro ont montré qu’il pouvait avoir un impact positif sur la santé des personnes âgées atteintes de démence ou d’Alzheimer.

Ces avantages ne doivent toutefois pas occulter les risques éthiques et juridiques que peuvent présenter ces robots intelligents puisqu’ils ont pour finalités d’accompagner mais aussi de surveiller les faits et gestes de la personne âgée. Un encadrement adapté à  leur déploiement massif dans le respect des droits fondamentaux est indéniable. En effet, l’un des grands avantages de ces robots réside dans leur disponibilité d’assistance 24h/24, 7j/7, cela signifie que les données sont continuellement captées par ces robots qui sont munis de multiples capteurs, par exemple pour compter le nombre de fois où le réfrigérateur est resté ouvert ou que la bouilloire a été mise en marche, pour alerter en cas d’absence de mouvement ou de chute, etc. Le respect de la dignité, de la vie privée et de la protection des données personnelles est donc au cœur des questionnements juridique liés au déploiement de la robotique.                

Les règles de droit relatives à la protection des données personnelles doivent s’appliquer pour faire respecter les droits fondamentaux de la vie privée et de la dignité des personnes âgées face aux nouvelles technologies dont les robots d’assistance.

Le droit à la protection des données personnelles apparaît comme un préalable à la protection de la vie privée et de la dignité de l’utilisateur des robots compagnons. A ce titre, le règlement général sur la protection des données personnelles (RGPD) consacre notamment sept commandements essentiels qui s’appliquent aux traitements de données personnelles effectués par ces automates, à savoir :

  1. « Tu prendras en compte la protection des données dès la phase de conception et l’appliqueras par défaut » (privacy by design & by default ; RGPD, art. 25)
  2. « Tu traiteras les données personnelles de manière licite, loyale et transparente au regard de la personne concernée » (principe de licéité, loyauté et transparence ; RGPD, art. 5.1.(a))
  3. « Tu collecteras des données personnelles pour des finalités déterminées, explicites et légitimes » (principe de limitation des finalités ; RGPD, art. 5.1.(b))
  4. « Tu ne collecteras et ne traiteras que les données adéquates, pertinentes et limitées à ce qui est nécessaire au regard des finalités prédéterminées » (principe de minimisation des données ; RGPD, art. 5.1.(c))
  5. « Tu conserveras les données personnelles pendant une durée n’excédant pas celle nécessaire au regard des finalités » (principe de limitation de la conservation des données ; RGPD, art. 5.1.(e))
  6. « Tu traiteras les données de façon à garantir une sécurité appropriée des données à caractère personnel » (principe d’intégrité et de confidentialité des données ; RGPD, art. 5.1.(f))
  7. « Tu seras responsable du respect de ces règles et en mesure de le démontrer » (principe d’accountability ; RGPD, art. 5.2.)

Si l’avocat près la Cour d’appel de Paris, Alain Bensoussan, affirme que les robots ont des droits. En réalité cet encadrement se restreint, pour l’heure, essentiellement à des normes souples : résolutions, codes de bonne conduite, directives, guidelines, livres blancs, commissions et groupes de travail proposent chacun leurs grands principes pour une intelligence artificielle (IA) digne de confiance, responsable, éthique.

Certaines de ces chartes s’inspirent d’ailleurs des trois célèbres lois d’Asimov, élevant ainsi ces règles issues d’une œuvre de science-fiction au rang de norme juridique, comme c’est le cas en Corée du Sud. De son côté, la France n’est pas en reste puisque la proposition de loi constitutionnelle relative à la Charte de l’intelligence artificielle et des algorithmique, déposée le 15 janvier 2020, souhaitait également introduire les trois lois d’Asimov dans le préambule de la Constitution.

La roboéthique prend ainsi de l’ampleur au point d’induire une certaine confusion entre normes éthiques et juridiques. Par exemple, dans son ouvrage Des robots et des hommes : mythes, fantasmes et réalité, Laurence Devilliers a proposé d’enrichir les lois d’Asimov par onze commandements pour construire des robots sociaux avec « des comportements éthiques et sécuritaires », qui mêlent éthique et juridique, ressemblant aux commandement rédigés par le RGPD:    

  1. Donnés privées : « Tu ne divulgueras pas mes données à n’importe qui. »
  2. Droit à l’oubli : « Tu oublieras tout ce que je te demande d’oublier. »
  3. Sécurité : « Tu pourras te déconnecter d’Internet si je te le demande. »
  4. Contrôle : « Tu seras régulièrement contrôlé pour évaluer ce que tu as appris. »
  5. Explicabilité et traçabilité : « Tu pourras m’expliquer tes comportements si je te le demande. »
  6. Loyauté : « Tu seras loyal. »
  7. Consentement : « Tu seras empathique et simulera des émotions, seulement si je le sais ! »
  8. Dépendance : « Tu stimuleras ma mémoire et veilleras à ce que je ne devienne pas trop dépendant de toi ! »
  9. Confusion : « Tu feras attention à ce que je ne te confonde pas avec un être humain ! »
  10. Adaptation aux règles sociales : « Tu apprendras à vivre avec des humains, tu t’adapteras aux règles sociales »
  11. Bienveillance : « Tu seras bienveillant et utile. Et pourquoi pas, doué d’un peu d’humour! »

Au-delà de ces premières formes d’encadrement éthiques de la robotique et de l’IA, l’Union Européenne manifesté une volonté de développer progressivement un cadre réglementaire. En ce sens, le projet de motion pour une résolution du 21 janvier 2020 pose les premières réflexions européennes à l’égard des processus algorithmique d’aide à la décision. Par ailleurs, le livre blanc sur l’« intelligence artificielle : une approche européenne axée sur l’excellence et la confiance » du 19 février 2020, publié par la Commission européenne, souligne la nécessité d’adopter un cadre réglementaire européen solide pour développer une IA digne de confiance.

En parallèle, le Conseil de l’Europe a créé, en 2019, un Comité ad’hoc sur l’intelligence artificielle (CAHAI) qui examine actuellement la faisabilité et les éléments potentiels, sur la base de larges consultations multipartites, d’un cadre juridique pour le développement, la conception et l’application de l’intelligence artificielle, fondé sur les normes du Conseil de l’Europe en matière de droits de l’homme, de démocratie et d’Etat de droit. A cette fin, un rapport d’état d’avancement incluant des propositions spécifiques pour des actions futures devrait être présenté prochainement en 2020.

Finalement, comme l’a souligné la Commission mondial d’éthique des connaissances scientifiques et des technologies dans son rapport sur l’éthique de la robotique, il est possible de considérer que la réglementation du secteur de la robotique est actuellement confrontée à quatre difficultés:

  1. rester en phase avec l’évolution rapide des technologies ;
  2. trouver un équilibre entre l’innovation et la protection des droits fondamentaux ;
  3. savoir quand affirmer les normes sociales existantes ou les pousser à évoluer dans de nouvelles directions ; et
  4. mettre en balance l’efficacité et la légitimité de la réglementation des technologies.

Pour conclure, dans l’attente d’un encadrement spécifique de la robotique domestique, les fabricants de tels robots doivent impérativement tenir des droits des personnes âgées dès la conception de leur robot.

À cet égard, la Charte européenne des droits et des responsabilités des personnes âgées nécessitant des soins et une assistance de longue durée constitue un premier guide pratique ainsi qu’une checklist précieuse pour aider les fabricants dans la conception de tels robots. Cette Charte de 2010 mériterait toutefois de faire l’objet d’une mise à jour, notamment au regard de la protection des données et des enjeux propres à la robotique car depuis 2010, les technologies ont beaucoup évalués notamment avec l’émergence des systèmes d’IA.

La responsabilité joue également un rôle central dans l’encadrement de ces robots. Toutefois, l’absence d’un accord sur une définition juridique de la robotique, plus largement, et de l’intelligence artificielle constitue actuellement un frein majeur à l’adoption d’un droit sui generis propre aux robots domestiques. On traitera de ces sujets dans nos prochains articles de blog.

About the author(s)

Chercheur juridique stagiaire chez Prudence AI
Etudiant en Master II Droit algorithmique et Gouvernance des données (Nice, France)

Website | + posts

Dobah is the founder of Prudence AI and a senior lawyer specilized in data protection and AI ethics. She regularly advises AI and technology companies on issues related to their collection, storage and use of data and on implementing responsible AI systems. She is also building AI ethics and privacy tools and methods to translate principles into practices to help organizations of all types manage and mitigate their risk when developing and implementing AI systems.

Tagged , , , ,

About Pierre Legros and Dobah Carré