Les entreprises technologiques se méfiaient autrefois de ce que certaines intelligences artificielles pouvaient faire. Désormais, la priorité est de prendre le contrôle du prochain grand projet de l’industrie.
Par Nico Grant et Karen Weise
En mars, deux employés de Google, dont le travail consiste à examiner les produits d’intelligence artificielle de l’entreprise, ont tenté d’empêcher Google de lancer un chatbot IA. Ils pensaient que cela générait des déclarations inexactes et dangereuses.
Dix mois plus tôt, des préoccupations similaires avaient été soulevées chez Microsoft par des éthiciens et d’autres employés. Ils ont écrit dans plusieurs documents que la technologie d’IA derrière un chatbot planifié pourrait inonder les groupes Facebook de désinformation, dégrader la pensée critique et éroder le fondement factuel de la société moderne.
Les entreprises ont quand même sorti leurs chatbots. Microsoft a été le premier, avec un événement sensationnel en février, à révéler un chatbot IA intégré à son moteur de recherche Bing. Google a suivi environ six semaines plus tard avec son propre chatbot, Bard.
Les mouvements agressifs des entreprises normalement averses au risque ont été motivés par une course pour contrôler ce qui pourrait être la prochaine grande chose de l’industrie technologique – l’IA générative, la nouvelle technologie puissante qui alimente ces chatbots.
Cette compétition a pris un ton frénétique en novembre lorsque OpenAI, une start-up de San Francisco travaillant avec Microsoft, a lancé ChatGPT, un chatbot qui a captivé l’imagination du public et qui compte désormais environ 100 millions d’utilisateurs mensuels.
Le succès surprenant de ChatGPT a conduit à une volonté chez Microsoft et Google de prendre plus de risques avec leurs directives éthiques mises en place au fil des ans pour s’assurer que leur technologie ne cause pas de problèmes de société, selon 15 employés actuels et anciens et des documents internes des entreprises.
L’urgence de construire avec la nouvelle IA s’est cristallisée dans un e-mail interne envoyé le mois dernier par Sam Schillace, un responsable technologique chez Microsoft. Il a écrit dans l’e-mail, qui a été consulté par le New York Times, que c’était une « erreur absolument fatale en ce moment de s’inquiéter de choses qui peuvent être corrigées plus tard ».
Lorsque l’industrie technologique se tourne soudainement vers un nouveau type de technologie, la première entreprise à introduire un produit « est le gagnant à long terme simplement parce qu’elle a commencé en premier », a-t-il écrit. « Parfois, la différence se mesure en semaines. »
La semaine dernière, la tension entre les inquiets et les preneurs de risques de l’industrie s’est manifestée publiquement alors que plus de 1 000 chercheurs et leaders de l’industrie, dont Elon Musk et le cofondateur d’Apple, Steve Wozniak, ont appelé à une pause de six mois dans le développement d’une puissante technologie d’IA. Dans une lettre publique, ils ont déclaré que cela présentait « des risques profonds pour la société et l’humanité ».
Les régulateurs menacent déjà d’intervenir. L’Union européenne a proposé une législation pour réglementer l’IA, et l’Italie a temporairement interdit ChatGPT la semaine dernière. Aux États-Unis, le président Biden est devenu mardi le dernier responsable à remettre en question la sécurité de l’IA
Un nouveau monde courageux. Une nouvelle génération de chatbots alimentés par l’intelligence artificielle a déclenché une ruée pour déterminer si la technologie pourrait bouleverser l’économie d’Internet, transformant les centrales électriques d’aujourd’hui en has-beens et créant les prochains géants de l’industrie. Voici les bots à connaitre :
ChatGPT. ChatGPT, le modèle de langage d’intelligence artificielle d’un laboratoire de recherche, OpenAI, fait la une des journaux depuis novembre pour sa capacité à répondre à des questions complexes, à écrire de la poésie, à générer du code, à planifier des vacances et à traduire des langues. GPT-4, la dernière version introduite à la mi-mars, peut même répondre aux images (et réussir l’examen Uniform Bar).
Bing. Deux mois après les débuts de ChatGPT, Microsoft, le principal investisseur et partenaire d’OpenAI, a ajouté un chatbot similaire, capable d’avoir des conversations textuelles ouvertes sur pratiquement n’importe quel sujet, à son moteur de recherche Internet Bing. Mais ce sont les réponses parfois inexactes, trompeuses et étranges du bot qui ont attiré une grande partie de l’attention après sa sortie.
Barde. Le chatbot de Google, appelé Bard, a été lancé en mars pour un nombre limité d’utilisateurs aux États-Unis et en Grande-Bretagne. Conçu à l’origine comme un outil créatif conçu pour rédiger des e-mails et des poèmes, il peut générer des idées, rédiger des articles de blog et répondre à des questions avec des faits ou des opinions.
Ernie. Le géant de la recherche Baidu a dévoilé le premier grand rival de la Chine à ChatGPT en mars. Les débuts d’Ernie, abréviation de Enhanced Representation through Knowledge Integration, se sont avérés être un flop après qu’une démonstration « en direct » promise du bot a été révélée avoir été enregistrée.
« Les entreprises technologiques ont la responsabilité de s’assurer que leurs produits sont sûrs avant de les rendre publics », a-t-il déclaré à la Maison Blanche. Lorsqu’on lui a demandé si l’IA était dangereuse, il a répondu : « Cela reste à voir. Pourrait être. »
Les problèmes soulevés aujourd’hui étaient autrefois le genre de préoccupations qui poussaient certaines entreprises à s’asseoir sur les nouvelles technologies. Ils avaient appris que la libération prématurée de l’IA pouvait être embarrassante. Il y a sept ans, par exemple, Microsoft a rapidement retiré un chatbot appelé Tay après que les utilisateurs l’aient poussé du coude pour générer des réponses racistes.
Les chercheurs disent que Microsoft et Google prennent des risques en publiant une technologie que même ses développeurs ne comprennent pas entièrement. Mais les entreprises ont déclaré qu’elles avaient limité la portée de la version initiale de leurs nouveaux chatbots et qu’elles avaient construit des systèmes de filtrage sophistiqués pour éliminer les discours de haine et les contenus susceptibles de causer un préjudice évident.
Natasha Crampton, responsable en chef de l’IA chez Microsoft, a déclaré dans une interview que six ans de travail autour de l’IA et de l’éthique chez Microsoft avaient permis à l’entreprise « d’avancer avec agilité et réflexion ». Elle a ajouté que « notre engagement envers une IA responsable reste inébranlable ».
Google a publié Bard après des années de dissidence interne sur la question de savoir si les avantages de l’IA générative l’emportaient sur les risques. Il a annoncé Meena, un chatbot similaire, en 2020. Mais ce système a été jugé trop risqué pour être publié, ont déclaré trois personnes connaissant le processus. Ces préoccupations ont été rapportées plus tôt par le Wall Street Journal.
Plus tard en 2020, Google a empêché ses meilleurs chercheurs en IA éthique, Timnit Gebru et Margaret Mitchell, de publier un article avertissant que les soi-disant grands modèles de langage utilisés dans les nouveaux systèmes d’IA, qui sont formés pour reconnaître des modèles à partir de grandes quantités de données, pourraient cracher un langage abusif ou discriminatoire. Les chercheurs ont été expulsés après que le Dr Gebru ait critiqué les efforts de diversité de l’entreprise et que le Dr Mitchell ait été accusé d’avoir violé son code de conduite après avoir enregistré des e-mails professionnels sur un compte Google Drive personnel.
Le Dr Mitchell a déclaré qu’elle avait essayé d’aider Google à publier des produits de manière responsable et à éviter la réglementation, mais au lieu de cela, « ils se sont vraiment tiré une balle dans le pied ».
Brian Gabriel, un porte-parole de Google, a déclaré dans un communiqué que « nous continuons à faire de l’IA responsable une priorité absolue, en utilisant nos principes d’IA et nos structures de gouvernance internes pour partager de manière responsable les avancées de l’IA avec nos utilisateurs ».
Les inquiétudes concernant les modèles plus grands ont persisté. En janvier 2022, Google a refusé qu’un autre chercheur, El Mahdi El Mhamdi, publie un article critique.
Le Dr El Mhamdi, employé à temps partiel et professeur d’université, a utilisé des théorèmes mathématiques pour avertir que les plus grands modèles d’IA sont plus vulnérables aux attaques de cybersécurité et présentent des risques de confidentialité inhabituels car ils ont probablement eu accès à des données privées stockées dans divers endroits autour. l’Internet.
Bien qu’une présentation de la direction ait par la suite mis en garde contre des violations similaires de la confidentialité de l’IA, les examinateurs de Google ont demandé au Dr El Mhamdi des changements substantiels. Il a refusé et a publié le papier par le biais de l’École Polytechnique.
Il a démissionné de Google cette année, invoquant en partie la « censure de la recherche ». Il a déclaré que les risques de l’IA moderne « dépassaient largement » les avantages. « C’est un déploiement prématuré », a-t-il ajouté.
Après la sortie de ChatGPT, Kent Walker, le meilleur avocat de Google, a rencontré des responsables de la recherche et de la sécurité au sein du puissant Advanced Technology Review Council de l’entreprise. Il leur a dit que Sundar Pichai, directeur général de Google, faisait tout son possible pour libérer l’IA de Google.
Jen Gennai, directrice du groupe d’innovation responsable de Google, a assisté à cette réunion. Elle a rappelé ce que M. Walker avait dit à son propre personnel.
La réunion était « Kent parlant aux dirigeants de l’ATRC, leur disant: » C’est la priorité de l’entreprise « », a déclaré Mme Gennai dans un enregistrement qui a été examiné par le Times. « ‘Quelles sont vos préoccupations ? Mettons-nous en ligne. »
M. Walker a dit aux participants d’accélérer les projets d’IA, bien que certains dirigeants aient déclaré qu’ils maintiendraient les normes de sécurité, a déclaré Mme Gennai.
Son équipe avait déjà documenté des préoccupations concernant les chatbots : ils pouvaient produire de fausses informations, blesser les utilisateurs qui s’y attachaient émotionnellement et permettre la « violence facilitée par la technologie » par le biais d’un harcèlement de masse en ligne.
En mars, deux examinateurs de l’équipe de Mme Gennai ont soumis leur évaluation des risques de Bard. Ils ont recommandé de bloquer sa sortie imminente, ont déclaré deux personnes familières avec le processus. Malgré les garanties, ils pensaient que le chatbot n’était pas prêt.
Mme Gennai a modifié ce document. Elle a retiré la recommandation et minimisé la gravité des risques de Bard, ont déclaré les gens.
Mme Gennai a déclaré dans un e-mail au Times que Bard étant une expérience, les examinateurs n’étaient pas censés se prononcer sur l’opportunité de poursuivre. Elle a dit qu’elle « a corrigé des hypothèses inexactes et a en fait ajouté plus de risques et de préjudices qui devaient être pris en compte ».
Google a déclaré avoir publié Bard en tant qu’expérience limitée en raison de ces débats, et Mme Gennai a déclaré que la formation continue, les garde-fous et les clauses de non-responsabilité rendaient le chatbot plus sûr.
Google a publié Bard pour certains utilisateurs le 21 mars. La société a annoncé qu’elle intégrerait bientôt l’IA générative dans son moteur de recherche.
Microsoft a fait élaborer des politiques par son Office of Responsible AI, une équipe dirigée par Mme Crampton, mais les directives n’ont pas été systématiquement appliquées ou suivies, ont déclaré cinq employés actuels et anciens.
Malgré un principe de « transparence », les experts en éthique travaillant sur le chatbot n’ont pas reçu de réponses sur les données utilisées par OpenAI pour développer ses systèmes, selon trois personnes impliquées dans les travaux. Certains ont fait valoir que l’intégration de chatbots dans un moteur de recherche était une idée particulièrement mauvaise, étant donné qu’elle servait parfois de faux détails, a déclaré une personne ayant une connaissance directe des conversations.
Mme Crampton a déclaré que des experts de Microsoft travaillaient sur Bing et que des personnes clés avaient accès aux données de formation. La société a travaillé pour rendre le chatbot plus précis en le reliant aux résultats de recherche Bing, a-t-elle ajouté.
À l’automne, Microsoft a commencé à dissoudre ce qui avait été l’une de ses plus grandes équipes d’éthique technologique. Le groupe Ethique et Société a formé et consulté les chefs de produits des entreprises pour concevoir et construire de manière responsable. En octobre, la plupart de ses membres ont été transférés à d’autres groupes, selon quatre personnes familières avec l’équipe.
Les quelques autres ont participé à des réunions quotidiennes avec l’équipe Bing, se précipitant pour lancer le chatbot. John Montgomery, un cadre de l’IA, leur a dit dans un e-mail de décembre que leur travail restait vital et que davantage d’équipes « auront également besoin de notre aide ».
Après l’introduction de Bing alimenté par l’IA, l’équipe d’éthique a documenté les préoccupations persistantes. Les utilisateurs pourraient devenir trop dépendants de l’outil. Des réponses inexactes pourraient induire les utilisateurs en erreur. Les gens pouvaient croire que le chatbot, qui utilise un « je » et des emojis, était humain.
À la mi-mars, l’équipe a été licenciée, une action qui a été signalée pour la première fois par la newsletter technique Platformer. Mais Mme Crampton a déclaré que des centaines d’employés travaillaient toujours sur les efforts d’éthique.
Microsoft a lancé de nouveaux produits chaque semaine, un rythme effréné pour réaliser les plans que M. Nadella a mis en branle cet été lorsqu’il a présenté en avant-première le dernier modèle d’OpenAI.
Il a demandé au chatbot de traduire le poète persan Rumi en ourdou, puis de l’écrire en caractères anglais. « Cela a fonctionné comme un charme », a-t-il déclaré dans une interview en février. « Puis j’ai dit: ‘Dieu, cette chose.' »
The New York Times, 15/04/2023
#Microsoft #Google #IA #Intelligence_artificielle