Une erreur dans le texte ?

C'est le bon endroit pour nous l'indiquer !
Attention, ce formulaire ne doit servir qu'à signaler une erreur. N'hésitez pas à utiliser la page de contact pour nous contacter ou nous faire part de vos suggestions. Merci.

Etape 1

Cliquez sur les paragraphes contenant des erreurs !

Une IA éthique ? Pourquoi Google fait carrément appel à des philosophes

On oublie presque qu'il y avait des produits hardware à la Google I/O 2023 -- Pixel 7a, Pixel Tablet et Pixel Fold. Et pour cause, la firme de Mountain View a dédié sa conférence du 10 mai quasi exclusivement à l'intelligence artificielle.

L'entreprise en a aussi profité pour aborder une question importante : comment s'assurer que l'IA reste éthique ? James Manyika , Senior Vice President Technologie et Société chez Google, est ainsi monté sur scène pour expliquer le leitmotiv de son groupe en la matière : « une IA à la fois audacieuse et responsable ».

De bien belles paroles qu'il promet de confirmer par des actes. Deux exemples ont notamment été cités. On pourra ainsi utiliser Google Search pour déterminer si une image a été générée par IA tandis que Universal Translator, l'outil qui peut révolutionner le doublage, mais aussi favoriser la création de faux contenus, ne sera mis qu'entre les mains de partenaires de confiance.

Une question de principe

Au détour d'une table ronde à laquelle il participait, nous demandons à James Manyika si les travaux de Google sur l'intelligence artificielle suscitent des questions éthiques qui n'existaient pas jusque-là avec les précédents outils que la firme a mis entre les mains de tout le monde.

Il confirme sans réserve. « Même quand elle fonctionne très bien, l'IA peut être très mal utilisée ». Le porte-parole cite immédiatement le risque d'une prolifération des deep fakes, par exemple, qui pourrait alimenter les informations erronées.

James Manyika estime ainsi qu'il faut réfléchir et peaufiner des principes fondateurs très en amont pour prévenir toutes formes de dérives. Afin d'éviter un parcours à celui des réseaux sociaux traditionnels avec lesquels il se permet une petite comparaison.

Des questions philosophiques

« Nous travaillons avec des philosophes et des éthiciens », confesse le porte-parole. Avec ces experts, Google peut donc s'attarder sur des questions presque abstraites, mais qui ont leur importance.

Exemple : « voulez-vous que votre IA ait une personnalité ou non ? D'aucuns diraient que l'on peut le faire, mais doit-on le faire ? » James Manyika affirme que « selon tellement de critères, la réponse à cette question change radicalement ».

Il faut en tout cas espérer que Google n'ait pas oublié son ancien slogan informel « Don't be evil » -- « Ne pas faire le mal » pour le remettre au centre des débats. L'avenir nous dira vraisemblablement si le géant aura réussi ou échoué à tenir ses promesses. Si vous ne lui faites confiance, peut-être aurez-vous plus de foi face l'Union européenne qui trame son AI Act afin de bien encadrer les usages de l'IA ?

NB. Notre journaliste Omar participe à la Google I/O à Mountain View dans le cadre d'un voyage de presse organisé par Google.