Une erreur dans le texte ?

C'est le bon endroit pour nous l'indiquer !
Attention, ce formulaire ne doit servir qu'à signaler une erreur. N'hésitez pas à utiliser la page de contact pour nous contacter ou nous faire part de vos suggestions. Merci.

Etape 1

Cliquez sur les paragraphes contenant des erreurs !

ChatGPT envisage de quitter l'Europe

L'Europe est un plaisir pour toute entreprise technologique qui souhaite simplement partager sa petite création avec le monde, n'est-ce pas ? Et en particulier pour ChatGPT. On peut le dire, ChatGPT a joué les explorateurs en Europe, sauf qu'au lieu de territoires vierges, il a trouvé des règlements, des accusations et même des portes fermées. Il a été bloqué en Italie, pour manque de transparence dans son utilisation des données. L'Allemagne, ou encore la France, envisagent des mesures comparables.

Heureusement, pour le moment, OpenAI a su réagir. ChatGPT a fait peau neuve avec de nouvelles fonctionnalités offrant aux utilisateurs un meilleur contrôle de leurs données. Un mode de confidentialité pour choisir si les recherches doivent apparaître dans l’historique de ChatGPT et si OpenAI peut utiliser ces données pour entraîner ses modèles.

Néanmoins, la grande aventure européenne de ChatGPT est loin d'être terminée. Le CEO d'OpenAI, Sam Altman, semble un peu perdu. Il a exprimé des craintes lors d'un échange à l'Université de Londres et a même évoqué, comme le rapporte le Time, la possibilité que son entreprise pourrait « cesser ses activités » dans l'Union européenne si elle n'est pas en mesure de se conformer à la nouvelle législation sur l'intelligence artificielle.

ChatGPT et GPT-4 « à haut risque »

Et le détail qui fâche ? La nouvelle loi pourrait désigner de grands modèles d'IA comme ChatGPT et GPT-4 comme « à haut risque ». Apparemment, Sam Altman n'abandonnera pas si facilement. Dans le cadre de sa tournée en Europe, il a rencontré les régulateurs de l'UE pour discuter de la loi sur l'IA.

En attendant, Sam Altman a exprimé son inquiétude sur scène, à propos des risques liés à l'IA, comme la désinformation. Un exemple ? L'IA pourrait avoir un impact sur les prochaines élections américaines de 2024. Pour conclure sur une note plus sage, Sam Altman a également évoqué la nécessité d'une redistribution des richesses dans un avenir proche. Une note d'optimisme ? En attendant, les entreprises ont commencé à licencier avec l'IA comme prétexte.