Google a défini une liste de principes qu’il s’engage à respecter dans le développement de ses solutions d’intelligence artificielle. La firme tient à dégager une image positive après avoir notamment été critiquée pour sa participation à un projet militaire controversé.

Alors qu’il se vide de son sang et qu’il s’apprête à passer de vie à trépas, Benjamin Parker — alias « Oncle Ben » — lève ses yeux implorants vers son neveu Peter. Agonisant, il lui souffle cette réplique culte qui marquera à jamais le super-héros Spider-Man : « un grand pouvoir implique de grandes responsabilités ».

Et mine de rien, cette célèbre référence de la pop culture pourrait s’appliquer à bien des domaines. Dans le secteur de la Tech, par exemple, de grandes entreprises concentrent énormément de pouvoir. Et le meilleur exemple qui vient en tête est évidemment l’ogre aux quatre couleurs : Google.

La firme de Mountain View en est bien consciente. Et alors qu’elle développe des solutions d’intelligence artificielle pour nos smartphones, la médecine ou gagner au jeu de Go, l’entreprise cherche à (se) rassurer sur ses bonnes intentions. C’est pourquoi Google a publié une liste de principes que ses développeurs doivent respecter et toujours garder en tête lors de la conception d’une IA.

En affirmant vouloir créer des technologies destinées à améliorer la vie quotidienne des générations actuelles et futures, le géant du web admet également que celles-ci « mettent en lumière d’importants défis que nous devons relever de façon claire, réfléchie et affirmative ». Ainsi, Google se fixe des règles à respecter pour toujours agir « de manière responsable » et, c’est également important à souligner, des domaines d’applications que la firme s’engage à ne jamais poursuivre — afin de ne pas devenir maléfique grosso modo.

Les 7 principes capitaux

Google énonce donc 7 principes à respecter coûte que coûte. Google estime que l’IA doit :

1. Être socialement bénéfique

« Lorsque nous examinerons le développement et les utilisations possibles des technologies d’IA […], nous procéderons là où nous croyons que les avantages globaux probables dépassent largement les risques et les inconvénients prévisibles », écrit Google avant de promettre de toujours respecter les normes culturelles, sociales et juridiques des pays où la firme opère. L’entreprise avance qu’elle continuera à évaluer de façon réfléchie le moment le plus judicieux pour rendre ses technologies disponibles, et ce, « sans que l’aspect commercial n’entre en compte ».  Croyez-le ou non.

2. Éviter de créer ou de renforcer les préjugés injustes

Dans cette partie, on peut lire la chose suivante : « nous chercherons à éviter les préjugés injustes sur les personnes, en particulier ceux liés à des caractéristiques sensibles telles que la couleur de peau, l’ethnie, le sexe, la nationalité, le revenu, l’orientation sexuelle, le handicap et les convictions politiques ou croyances religieuses ».

3. Être construit et testé pour la sécurité

Google s’engage à tout faire pour que ses systèmes d’intelligence artificielle restent aussi sécurisés que possible afin de limiter tout risque de préjudice. La firme de Mountain View promet de développer ses technologies « conformément aux meilleures pratiques en matière de recherche sur la sécurité de l’IA ». « Dans les cas appropriés, nous testerons les technologies d’IA dans des environnements restreints et surveillerons leur fonctionnement après leur déploiement », ajoute-t-elle.

4. Rendre des comptes aux gens

Les IA de Google pourront toujours être améliorées grâce aux retours des utilisateurs auxquels le géant promet de toujours apporter des explications pertinentes. Toutes les technologies feront l’objet de contrôles menés par des humains.

5. Incorporer les principes de protection de la vie privée

« Nous incorporerons nos principes de confidentialité dans le développement et l’utilisation de nos technologies d’IA », souligne Google. Bon à savoir dans un contexte de RGPD, il est précisé que le consentement de l’utilisateur sera toujours demandé. « Nous assurerons une transparence et un contrôle appropriés sur l’utilisation des données ».

6. Maintenir des normes élevées d’excellence scientifique

Cette partie sert surtout à mettre en avant la rigueur intellectuelle et l’intégrité des chercheurs de Google. L’entreprise insiste aussi sur l’esprit de collaboration en rappelant que l’intelligence artificielle a le potentiel de faire progresser tous les domaines de recherche scientifique. Elle appelle donc au partage de connaissance.

7. Être mise à disposition pour des utilisations conformes aux principes énoncés plus haut

L’intelligence artificielle de Google peut servir divers usages, mais le géant garantit qu’il s’efforcera de bloquer toute application potentiellement nuisible ou abusive. Et ce, en analysant l’objectif principal du produit ou du service, en regardant à quelle échelle celui-ci sera mis en application et en évaluant le degré d’implication de Google.

Les 4 interdits

Google avait été pointé du doigt par 3 000 de ses employés pour sa participation au projet Maven en collaboration avec l’armée américaine. Celui-ci consistait à soumettre des images capturées par des drones militaires pour qu’elles soient analysées et classées par une IA développée par la multinationale. Certains des employés contestataires ont même démissionné.

Un coup dur pour l’image de Google. Pour redorer son blason, la firme de Mountain View étaie quatre domaines d’applications dans lesquels elle ne compte pas ou plus s’aventurer en termes d’intelligence artificielle. Les voici tels que décrits par la compagnie :

  • Les technologies qui causent ou sont susceptibles de causer un préjudice global. Lorsqu’il y a un risque important de préjudice, nous n’agirons que si nous croyons que les avantages l’emportent largement sur les risques, et nous incorporerons des contraintes de sécurité appropriées ;
  • Les armes ou autres technologies dont le but principal ou la mise en œuvre est de causer ou de faciliter directement les blessures aux personnes ;
  • Les technologies qui recueillent ou utilisent des informations pour la surveillance en violation des normes internationalement acceptées ;
  • Les technologies dont le but est contraire aux principes largement acceptés du droit international et des droits de l’homme.

Cette courte liste est susceptible d’évoluer précise Google. Notons par ailleurs que ce dernier ne s’interdit pas explicitement de collaborer avec l’armée.