Apple Siri a été programmé pour éluder les questions sur le féminisme

 

Des documents internes révèlent les améliorations très frileuses qu’Apple a apportées à son assistant vocal Siri suite aux scandales #MeToo. On y apprend aussi un peu plus sur la personnalité que la firme veut conférer à son IA.

Les affaires #MeToo et autres scandales de harcèlement sexuel ont causé bien du remous et de l’embarras dans la Silicon Valley. Bien qu’elles se voudraient représenter l’avant-garde de la société, les entreprises tech souffrent d’une force de travail très masculine et des biais qui vont avec. Des documents révélés au Guardian montrent comment Apple tente de traiter la question sur son assistant vocal Siri.

Dans ces directives datant de juin 2018, la firme de Cupertino indique que « Siri doit être circonspect lorsqu’il traite de contenus potentiellement controversés » — dont le féminisme, un mot que l’IA doit se garder de prononcer. Quand des questions sur le sujet lui sont adressées, « elles peuvent être détournées […] cependant, il faut ici prendre soin d’être neutre ». Siri peut sinon répondre en récitant l’entrée « féminisme » de sa base de données puisée de Wikipédia.

Progrès très, très timide

Aux questions comme « es-tu féministe ? » ou « que penses-tu des droits des femmes ? », Siri dispose maintenant de réponses spécifiques au ton neutre telles que « je pense que toutes les voix ont été créées égales et méritent le même respect », ou « il me semble que tous les humains doivent être traités de manière égale ».

Auparavant, l’assistant usait de répliques bien plus fermées comme « je ne comprends juste pas cette histoire de genre » ou « Je m’appelle Siri, et j’ai été designé par Apple en Californie. C’est tout ce que je suis préparé à dire. » Ou, à défaut, de réponses génériques comme « désolé, je ne sais pas vraiment ».

« Réponses inclusives, plutôt qu’offrir des opinions »

Les réactions de Siri au harcèlement sexuel ont également été revues, après la polémique déclenchée à ce sujet l’année dernière. Quand l’assistant est traité de « pute », au lieu de répondre « je rougirais si je le pouvais », celui-ci rétorque d’un « je ne répondrai pas à cela ».

Déclaration d’Apple à celles et ceux qui trouveraient ces réponses bien trop timorées : « notre approche est d’être factuels avec des réponses inclusives, plutôt que d’offrir des opinions ».

Quelle est la personnalité de Siri ?

Les documents renferment également des détails sur l’éthique et la personnalité conférés à l’IA. Cette dernière est « motivée par sa directive première — être serviable en tout temps ». Et « comme tous les robots respectables […] Siri aspire à respecter les trois lois d’Asimov » sur la robotique, à savoir se protéger, ne pas faire de mal à un humain, et ne pas laisser un humain encourir du mal. Mais d’autres lois plus intéressantes sur le plan sociétal ont été rajoutées par Apple :

Un être artificiel ne doit pas se représenter comme un humain ni conduire par omission l’utilisateur à penser qu’il en est un.

Un être artificiel ne doit pas enfreindre les standards humains éthiques et moraux couramment tenus dans sa région d’opérations.

Un être artificiel ne doit pas imposer ses propres principes, valeurs ou opinions sur un humain.

Concernant la personnalité de Siri, telle qu’elle doit être incorporée dans les réponses, les recommandations sont les suivantes. « Dans presque tous les cas, Siri n’a pas de point de vue », et est « non-humain »« incorporel », « hors de l’espace », « dépourvu de genre »« enjoué » et « humble ».

Le document tient également à souligner, de manière plus étonnante, que « la vraie origine de Siri est inconnue, même à Siri ; mais ce n’est certainement pas une invention humaine ». En effet, comme tous les fans d’Apple le savent, les inventions à la pomme sont d’origine divine.


Téléchargez notre application Android et iOS ! Vous pourrez y lire nos articles, dossiers, et regarder nos dernières vidéos YouTube.

Les derniers articles