Une IA éthique ? Pourquoi Google fait carrément appel à des philosophes

 

Un dirigeant haut placé de Google nous donne un exemple du genre de questions qu'il aborde avec les philosophes et éthiciens qui l'épaulent sur l'intelligence artificielle !

Google rêve et promet des IA audacieuses et responsables // Source : Frandroid

On oublie presque qu’il y avait des produits hardware à la Google I/O 2023Pixel 7a, Pixel Tablet et Pixel Fold. Et pour cause, la firme de Mountain View a dédié sa conférence du 10 mai quasi exclusivement à l’intelligence artificielle.

L’entreprise en a aussi profité pour aborder une question importante : comment s’assurer que l’IA reste éthique ? James Manyika , Senior Vice President Technologie et Société chez Google, est ainsi monté sur scène pour expliquer le leitmotiv de son groupe en la matière : « une IA à la fois audacieuse et responsable ».

Pour nous, cela signifie qu’il faut développer l’IA de manière à maximiser les avantages pour la société tout en relevant les défis, en s’appuyant sur nos principes en matière d’IA. Bien qu’il existe une tension naturelle entre les deux, nous pensons qu’il est possible — et en fait essentiel — d’exploiter cette tension de manière productive. La seule façon d’être vraiment audacieux à long terme est d’être responsable dès le départ.

De bien belles paroles qu’il promet de confirmer par des actes. Deux exemples ont notamment été cités. On pourra ainsi utiliser Google Search pour déterminer si une image a été générée par IA tandis que Universal Translator, l’outil qui peut révolutionner le doublage, mais aussi favoriser la création de faux contenus, ne sera mis qu’entre les mains de partenaires de confiance.

Une question de principe

Au détour d’une table ronde à laquelle il participait, nous demandons à James Manyika si les travaux de Google sur l’intelligence artificielle suscitent des questions éthiques qui n’existaient pas jusque-là avec les précédents outils que la firme a mis entre les mains de tout le monde.

Il confirme sans réserve. « Même quand elle fonctionne très bien, l’IA peut être très mal utilisée ». Le porte-parole cite immédiatement le risque d’une prolifération des deep fakes, par exemple, qui pourrait alimenter les informations erronées.

James Manyika estime ainsi qu’il faut réfléchir et peaufiner des principes fondateurs très en amont pour prévenir toutes formes de dérives. Afin d’éviter un parcours à celui des réseaux sociaux traditionnels avec lesquels il se permet une petite comparaison.

Des questions philosophiques

« Nous travaillons avec des philosophes et des éthiciens », confesse le porte-parole. Avec ces experts, Google peut donc s’attarder sur des questions presque abstraites, mais qui ont leur importance.

Exemple : « voulez-vous que votre IA ait une personnalité ou non ? D’aucuns diraient que l’on peut le faire, mais doit-on le faire ? » James Manyika affirme que « selon tellement de critères, la réponse à cette question change radicalement ».

James Manyika (2e en partant de la droite) participe à la même table ronde que Sundar Pichai // Source : Frandroid

Il faut en tout cas espérer que Google n’ait pas oublié son ancien slogan informel « Don’t be evil » — « Ne pas faire le mal » pour le remettre au centre des débats. L’avenir nous dira vraisemblablement si le géant aura réussi ou échoué à tenir ses promesses. Si vous ne lui faites confiance, peut-être aurez-vous plus de foi face l’Union européenne qui trame son AI Act afin de bien encadrer les usages de l’IA ?

NB. Notre journaliste Omar participe à la Google I/O à Mountain View dans le cadre d’un voyage de presse organisé par Google.


Les derniers articles