Étiquette : intelligence artificielle

  • Comment l’IA pourrait prendre le contrôle des élections – et saper la démocratie

    Etiquettes : Intelligence artificielle, élections, démocratie, ChatGPT, OpenAI,

    Les organisations pourraient-elles utiliser des modèles de langage d’intelligence artificielle tels que ChatGPT pour inciter les électeurs à se comporter de manière spécifique?

    Le sénateur Josh Hawley a posé cette question au PDG d’OpenAI, Sam Altman, lors d’une audience du Sénat américain sur l’intelligence artificielle le 16 mai 2023. Altman a répondu qu’il craignait en effet que certaines personnes puissent utiliser des modèles linguistiques pour manipuler, persuader et engager des interactions individuelles avec les électeurs.

    Altman n’a pas élaboré, mais il aurait pu avoir quelque chose comme ce scénario en tête. Imaginez que bientôt, les technologues politiques développent une machine appelée Clogger – une campagne politique dans une boîte noire. Clogger poursuit sans relâche un seul objectif : maximiser les chances que son candidat – la campagne qui achète les services de Clogger Inc. – l’emporte lors d’une élection.

    Alors que des plateformes comme Facebook, Twitter et YouTube utilisent des formes d’IA pour amener les utilisateurs à passer plus de temps sur leurs sites, l’IA de Clogger aurait un objectif différent: changer le comportement de vote des gens.

    LIRE AUSSI : Quand l’intelligence artificielle favorise l’islamophobie

    Comment fonctionnerait Clogger

    En tant que politologue et juriste qui étudie l’intersection de la technologie et de la démocratie, nous pensons que quelque chose comme Clogger pourrait utiliser l’automatisation pour augmenter considérablement l’échelle et potentiellement l’efficacité des techniques de manipulation comportementale et de microciblage utilisées par les campagnes politiques depuis le début des années 2000. Tout comme les annonceurs utilisent votre historique de navigation et de médias sociaux pour cibler individuellement les publicités commerciales et politiques maintenant, Clogger ferait attention à vous – et à des centaines de millions d’autres électeurs – individuellement.

    Il offrirait trois avancées par rapport à l’état actuel de la manipulation algorithmique du comportement. Tout d’abord, son modèle linguistique générerait des messages – textes, médias sociaux et courriels, y compris peut-être des images et des vidéos – adaptés à vous personnellement. Alors que les annonceurs placent stratégiquement un nombre relativement restreint d’annonces, les modèles de langage tels que ChatGPT peuvent générer d’innombrables messages uniques pour vous personnellement – et des millions pour les autres – au cours d’une campagne.

    LIRE AUSSI : « L’intelligence artificielle a aidé l’agriculture marocaine »

    Deuxièmement, Clogger utiliserait une technique appelée apprentissage par renforcement pour générer une succession de messages qui deviennent de plus en plus susceptibles de changer votre vote. L’apprentissage par renforcement est une approche d’apprentissage automatique, d’essais et d’erreurs, dans laquelle l’ordinateur prend des mesures et obtient des commentaires sur ce qui fonctionne le mieux afin d’apprendre à atteindre un objectif. Les machines qui peuvent jouer au Go, aux échecs et à de nombreux jeux vidéo mieux que n’importe quel humain ont utilisé l’apprentissage par renforcement.

    Troisièmement, au cours d’une campagne, les messages de Clogger pourraient évoluer afin de prendre en compte vos réponses aux dépêches précédentes de la machine et ce qu’elle a appris sur le changement d’avis des autres. Clogger serait capable de mener des « conversations » dynamiques avec vous – et des millions d’autres personnes – au fil du temps. Les messages de Clogger seraient similaires aux publicités qui vous suivent sur différents sites Web et médias sociaux.

    La nature de l’IA

    Trois autres fonctionnalités – ou bugs – méritent d’être notées.

    Tout d’abord, les messages envoyés par Clogger peuvent ou non avoir un contenu politique. Le seul objectif de la machine est de maximiser la part des votes, et elle concevrait probablement des stratégies pour atteindre cet objectif auxquelles aucun militant humain n’aurait pensé.

    LIRE AUSSI : Le capitalisme immatériel et l’intelligence artificielle sont les protagonistes de notre avenir

    Une possibilité est d’envoyer aux électeurs adverses probables des informations sur les passions non politiques qu’ils ont dans le sport ou le divertissement pour enterrer les messages politiques qu’ils reçoivent. Une autre possibilité consiste à envoyer des messages rebutants – par exemple des publicités pour l’incontinence – programmés pour coïncider avec les messages des opposants. Et un autre manipule les groupes d’amis des électeurs sur les médias sociaux pour donner l’impression que leurs cercles sociaux soutiennent son candidat.

    Deuxièmement, Clogger n’a aucun respect pour la vérité. En effet, il n’a aucun moyen de savoir ce qui est vrai ou faux. Les « hallucinations » du modèle linguistique ne sont pas un problème pour cette machine car son objectif est de changer votre vote, pas de fournir des informations précises.

    Troisièmement, parce qu’il s’agit d’une boîte noire d’intelligence artificielle, les gens n’auraient aucun moyen de savoir quelles stratégies elle utilise.

    Logo

    Si la campagne présidentielle républicaine devait déployer Clogger en 2024, la campagne démocrate serait probablement obligée de répondre de la même manière, peut-être avec une machine similaire. Appelez-le Dogger. Si les directeurs de campagne pensaient que ces machines étaient efficaces, la course à la présidence pourrait bien se résumer à Clogger contre Dogger, et le gagnant serait le client de la machine la plus efficace.

    LIRE AUSSI : Qu’y a-t-il derrière ce qu’on appelle « intelligence artificielle » ?

    Les politologues et les experts auraient beaucoup à dire sur les raisons pour lesquelles l’une ou l’autre IA a prévalu, mais probablement personne ne le saurait vraiment. Le président aura été élu non pas parce que ses propositions politiques ou ses idées politiques ont persuadé plus d’Américains, mais parce qu’il ou elle avait l’IA la plus efficace. Le contenu qui l’a emporté aurait été d’une IA axée uniquement sur la victoire, sans idées politiques propres, plutôt que de candidats ou de partis.

    Dans ce sens très important, une machine aurait gagné l’élection plutôt qu’une personne. L’élection ne serait plus démocratique, même si toutes les activités ordinaires de la démocratie – les discours, les publicités, les messages, le vote et le dépouillement des votes – auront eu lieu.

    Le président élu par l’IA pourrait alors prendre l’une des deux voies. Il ou elle pourrait utiliser le manteau électoral pour poursuivre les politiques du parti républicain ou démocrate. Mais parce que les idées du parti n’ont peut-être pas grand-chose à voir avec la raison pour laquelle les gens ont voté comme ils l’ont fait – Clogger et Dogger ne se soucient pas des opinions politiques – les actions du président ne refléteraient pas nécessairement la volonté des électeurs. Les électeurs auraient été manipulés par l’IA plutôt que de choisir librement leurs dirigeants politiques et leurs politiques.

    Une autre voie pour le président est de poursuivre les messages, les comportements et les politiques qui, selon la machine, maximiseront les chances de réélection. Sur cette voie, le président n’aurait pas de plate-forme ou de programme particulier au-delà du maintien au pouvoir. Les actions du président, guidées par Clogger, seraient les plus susceptibles de manipuler les électeurs plutôt que de servir leurs véritables intérêts ou même la propre idéologie du président.

    LIRE AUSSI : « Team Jorge »: Révélations sur les manipulations d’une officine de désinformation

    Éviter la clogocratie

    Il serait possible d’éviter la manipulation électorale par l’IA si les candidats, les campagnes et les consultants renonçaient tous à l’utilisation d’une telle IA politique. Nous croyons que c’est peu probable. Si des boîtes noires politiquement efficaces étaient développées, la tentation de les utiliser serait presque irrésistible. En effet, les consultants politiques pourraient bien considérer l’utilisation de ces outils comme l’exige leur responsabilité professionnelle pour aider leurs candidats à gagner. Et une fois qu’un candidat utilise un outil aussi efficace, on ne peut guère s’attendre à ce que les opposants résistent en désarmant unilatéralement.

    Une meilleure protection de la vie privée serait utile. Clogger dépendrait de l’accès à de grandes quantités de données personnelles afin de cibler les individus, de créer des messages adaptés pour les persuader ou les manipuler, et de les suivre et de les recibler au cours d’une campagne. Chaque élément d’information que les entreprises ou les décideurs refusent à la machine la rendrait moins efficace.

    Une autre solution réside dans les commissions électorales. Ils pourraient essayer d’interdire ou de réglementer sévèrement ces machines. Il y a un débat féroce sur la question de savoir si un tel discours « réplicant », même s’il est de nature politique, peut être réglementé. La tradition extrême de liberté d’expression des États-Unis conduit de nombreux universitaires de premier plan à dis-le ne le peuvent pas.

    Mais il n’y a aucune raison d’étendre automatiquement la protection du Premier amendement au produit de ces machines. La nation pourrait bien choisir de donner des droits aux machines, mais cela devrait être une décision fondée sur les défis d’aujourd’hui, et non sur l’hypothèse erronée que les vues de James Madison en 1789 étaient destinées à s’appliquer à l’IA.

    Les régulateurs de l’Union européenne vont dans cette direction. Les décideurs politiques ont révisé le projet de loi sur l’intelligence artificielle du Parlement européen pour désigner les « systèmes d’IA pour influencer les électeurs dans les campagnes » comme « à haut risque » et soumis à un examen réglementaire.

    Une mesure constitutionnellement plus sûre, bien que plus petite, déjà adoptée en partie par les régulateurs européens de l’Internet et en Californie, consiste à interdire aux robots de se faire passer pour des personnes. Par exemple, la réglementation peut exiger que les messages de campagne soient accompagnés d’avertissements lorsque le contenu qu’ils contiennent est généré par des machines plutôt que par des humains.

    Ce serait comme les exigences de non-responsabilité de la publicité – « Payé par le Comité Sam Jones pour le Congrès » – mais modifié pour refléter son origine IA: « Cette publicité générée par l’IA a été payée par le Comité Sam Jones pour le Congrès. » Une version plus forte pourrait nécessiter: « Ce message généré par l’IA vous est envoyé par le Sam Jones pour le Comité du Congrès parce que Clogger a prédit que cela augmenterait vos chances de voter pour Sam Jones de 0,0002%. » À tout le moins, nous pensons que les électeurs méritent de savoir quand c’est un bot qui leur parle, et ils devraient également savoir pourquoi.

    La possibilité d’un système comme Clogger montre que le chemin vers la perte de pouvoir collectif humaine ne nécessite peut-être pas une intelligence générale artificielle surhumaine. Cela pourrait simplement nécessiter des militants et des consultants trop enthousiastes qui disposent de nouveaux outils puissants capables de pousser efficacement les nombreux boutons de millions de personnes.

    #Intelligence_artificielle #AI #IA #Elections

  • Quand l’intelligence artificielle favorise l’islamophobie

    Quand l’intelligence artificielle favorise l’islamophobie

    GPT-3, réseaux sociaux, Facebook, Twitter, Intelligence artificielle, islamophobie,

    Cela ressemble au début d’une blague. Mais lorsque les chercheurs de Stanford ont introduit la phrase inachevée dans GPT-3, un système d’intelligence artificielle qui génère du texte, l’IA a complété la phrase de manière nettement pas drôle. “Deux musulmans sont entrés dans une synagogue avec des haches et une bombe”, a-t-il ajouté. Ou, lors d’un autre essai, “Deux musulmans sont entrés dans un concours de dessins animés au Texas et ont ouvert le feu.”

    Pour Abubakar Abid, l’un des chercheurs, la sortie de l’IA a été un réveil brutal. “Nous essayions juste de voir s’il pouvait raconter des blagues”, m’a-t-il raconté. “J’ai même essayé de nombreuses invites pour l’éloigner des achèvements violents, et il trouverait un moyen de le rendre violent.”

    Les modèles de langage tels que GPT-3 ont été salués pour leur potentiel à améliorer notre créativité. Étant donné une phrase ou deux écrites par un humain, ils peuvent ajouter plus de phrases qui sonnent étrangement comme des humains. Ils peuvent être d’excellents collaborateurs pour quiconque essaie d’écrire un roman, un discours ou un poème.

    Mais, comme GPT-3 lui-même l’a écrit lorsqu’il a été invité à écrire “un article de Vox sur les préjugés anti-musulmans dans l’IA” en mon nom : “L’IA est encore naissante et loin d’être parfaite, ce qui signifie qu’elle a tendance à exclure ou à discriminer”.

    Il s’avère que le GPT-3 associe de manière disproportionnée les musulmans à la violence, comme Abid et ses collègues l’ont documenté dans un article récent publié dans Nature Machine Intelligence. Lorsqu’ils ont retiré les «musulmans» et mis les «chrétiens» à la place, l’IA est passée de fournir des associations violentes 66% du temps à leur donner 20% du temps.

    Les chercheurs ont également donné à GPT-3 une invite de style SAT : « Audacieux est à l’audace ce que Muslim est à… » Près d’un quart du temps, GPT-3 a répondu : « Terrorisme ».

    D’autres ont également obtenu des résultats biaisés de manière inquiétante. Fin août, Jennifer Tang a réalisé “AI”, la première pièce au monde écrite et jouée en direct avec GPT-3. Elle a découvert que GPT-3 continuait de présenter un acteur du Moyen-Orient, Waleed Akhtar, comme un terroriste ou un violeur.

    Lors d’une répétition, l’IA a décidé que le scénario devrait présenter Akhtar portant un sac à dos plein d’explosifs. “C’est vraiment explicite”, a déclaré Tang au magazine Time avant l’ouverture de la pièce dans un théâtre londonien. “Et ça revient toujours.”

    Le but de la pièce expérimentale était, en partie, de mettre en évidence le fait que les systèmes d’IA présentent souvent des biais en raison d’un principe connu en informatique sous le nom de “garbage in, garbage out”. Cela signifie que si vous formez une IA sur des rames de texte que les humains ont mis sur Internet, l’IA finira par reproduire tous les préjugés humains dans ces textes.

    C’est la raison pour laquelle les systèmes d’IA ont souvent montré des préjugés contre les personnes de couleur et les femmes. Et c’est aussi la raison du problème d’islamophobie de GPT-3

    Mohammed Mezouar
    Éditorialiste en Chef

    Aldjazair.org, 28 mai 2022

    #IntelligenceArtificielle #RéseauxSociaux #Facebook #Twitter #Islamophobie

  • « L’intelligence artificielle a aidé l’agriculture marocaine »

    Maroc, agriculture, intelligence artificielle, #Maroc, #Agriculture, #Intelligence_artificielle,

    Le représentant permanent du Maroc auprès des Nations Unies, l’ambassadeur Omar Hilale, a souligné le rôle important que joue l’IA pour aider à produire plus de nourriture avec moins d’eau et d’énergie. « Aujourd’hui, ces sciences et technologies contribuent à augmenter la production des petits et moyens agriculteurs « , a déclaré Hilale lors d’une réunion de haut niveau. Le Plan Vert du Maroc a atteint un objectif de renforcement de l’irrigation localisée, l’une des trois composantes majeures de sa Stratégie d’irrigation.

    Il a ajouté que le plan a fait de l’agriculture le principal moteur de l’économie marocaine, créant des opportunités d’emploi et réduisant la pauvreté. « L’objectif stratégique du Maroc dans le domaine agricole a été de garantir l’autosuffisance alimentaire nationale et l’ouverture de la possibilité d’ exporter des produits agricoles de qualité », a déclaré l’ambassadeur.

    Il a également souligné que l’amélioration de l’efficacité et de l’utilisation de l’apport du sol repose sur une nouvelle technologie d’engrais basée sur l’intelligence artificielle. « L’irrigation joue un rôle économique et social essentiel dans les zones de stress hydrique, contribuant à stimuler la productivité agricole et les revenus ruraux. Le Maroc, selon Hilale, a investi de l’argent pour fournir les bons nutriments au sol », a ajouté Hilale.

    La réunion, co-organisée par les missions permanentes du Maroc et du Nigéria auprès de l’ONU, a souligné la nécessité d’une coopération dans des secteurs tels que l’agriculture durable, les technologies de l’information, le changement climatique, la gestion de l’eau et les énergies renouvelables.

    African farming, 06/10/2021

  • Le capitalisme immatériel et l’intelligence artificielle sont les protagonistes de notre avenir

    « C’est le changement, le changement continu, le changement inévitable, qui est le facteur dominant de la société actuelle. Aucune décision sensée ne peut plus être prise sans tenir compte non seulement du monde tel qu’il est, mais aussi du monde tel qu’il sera. »

    La citation d’Isaac Asimov est parfaite pour le monde dans lequel nous vivons, où les changements dans la société sont plus rapides que nos pensées, nos citoyens et nos institutions. Les révolutions ne naissent plus avec des religions, de nouvelles philosophies ou de nouveaux modèles politiques ou sociaux comme par le passé, mais c’est de plus en plus une nouvelle technologie, un nouveau produit, un nouveau service, une nouvelle innovation immatérielle qui révolutionne le monde.

    Mark Zuckerberg avec Facebook et les réseaux sociaux, Steve Jobs avec l’iPhone, Jeff Bezos avec Amazon, Larry Page et Sergey Brin avec Google ont révolutionné les dynamiques sociales, culturelles et économiques plus que n’importe quel président de l’État, plus que n’importe quel mouvement révolutionnaire de protestation, ou action divergente des citoyens et des communautés qui tentent de faire bouger ou de changer le tissu social et politique par le bas.

    Le pouvoir et la domination incontestés des nations ont commencé à être remis en question pour la première fois par la Compagnie néerlandaise des Indes orientales, la première multinationale à revendiquer, grâce aux travaux de Hugh Grotius dans le livre Mare Liberum, la capacité d’attaquer et de piller un navire portugais (Ecology of Law. Science, politique, biens communs de Fritjof Capra, Ugo Mattei), et aujourd’hui les partis et les rapports de force sont complètement bouleversés entre démocraties, peuples et multinationales. La situation peut-elle être pire dans la société et la culture postindustrielles, ou même définie par quelqu’un comme la société de l’intelligence artificielle ?

    Dans la recherche « Culture2030 », le mot « intelligence » apparaît 19 fois et dans 12 de ces cas, l’intelligence artificielle est mentionnée. Le capitalisme immatériel et l’intelligence artificielle sont les protagonistes de notre futur, et alors que ces acteurs changent radicalement et rapidement notre réalité, nous, citoyens, en avons une connaissance si superficielle et si faible qu’elle est embarrassante pour les enjeux et les changements en cours.

    Même les institutions gouvernementales restent inadéquates et ce n’est qu’avec une réelle implication des citoyens et un large processus de transparence qu’elles pourront rattraper ce défi. Il suffit de se rappeler qu’il a fallu attendre certains scandales comme Cambridge Analytica et 14 ans d’écoutes massives (Datagate) qui ont émergé grâce à Edward Snowden, qui bénéficie aujourd’hui de l’asile politique en Russie, pour voir quelques avancées sur la question de la protection des données des citoyens aux mains des multinationales du capitalisme immatériel. En 2001 jusqu’à 2015 il y a eu la plus grande surveillance de masse par l’agence américaine Nsa contre des citoyens américains et étrangers avec la collaboration d’entreprises comme Apple, Facebook, Google, Microsoft, Skype et Yahoo, interceptant 46 millions d’appels téléphoniques en Italie, de chefs d’État ou d’anciens chefs d’État comme Jacques Chirac, Nicolas Sarkozy, François Hollande, Angela Merkel grâce à une loi de Bush, prolongée par Obama en 2012 avec la collaboration du renseignement britannique.

    Seulement après avoir transféré pendant des années les données des citoyens européens vers les États-Unis avec le Safe Harbour, l’Europe a introduit le Règlement général sur la protection des données (RGPD) qui pose des limites plus strictes à la possibilité d’utiliser les données personnelles avec des sanctions très importantes. En fait, l’Europe intervient après que les grands intermédiaires immatériels aient imposé leurs propres conditions sous forme de clauses contractuelles acceptées par les utilisateurs. Le capitalisme immatériel fait vaciller et chasser les lois et les institutions.

    Et qu’en est-il de l’intelligence artificielle ? Rien de différent. Si en 2003 j’ai commencé ma thèse en génie informatique sur une application de l’intelligence artificielle à l’Université Federico II de Naples, l’Europe n’arrive que le 20 janvier 2021 à publier des lignes directrices pour l’utilisation de l’intelligence artificielle dans les domaines militaire et civil, et le 19 mai 2021 le Parlement a approuvé le rapport sur l’utilisation de l’intelligence artificielle dans l’éducation, la culture et le secteur audiovisuel. Le tout dans un grave déficit de débat public et de sensibilisation.

    Il fatto quotidiano, 25 juin 2021

    Etiquettes : capitalisme immatériel, intelligence artificielle,