Le département américain du Commerce a appelé les commentaires du public pour aider à guider les décideurs politiques sur la manière de réglementer les outils d’IA tels que les chatbots, dans le but d’imposer la responsabilité et la transparence, a rapporté The Guardian.
Des commentaires sont demandés à des groupes comprenant des chercheurs, des groupes industriels et des organismes de protection de la vie privée et des droits numériques, concernant les meilleures pratiques d’audit et d’évaluation prospectives.
Lors d’une annonce à l’Université de Pittsburgh, le chef de la National Telecommunications and Information Administration (NTIA), Alan Davidson, a déclaré que les régulateurs « doivent agir rapidement » vers la mise en œuvre de règles de confidentialité, en réponse aux innovations rapides.
De plus, il a été révélé que la NTIA cherchait des moyens de réduire les préjugés, la discrimination et d’autres types d’utilisation dangereuse de l’IA générative.
Le gouvernement américain avait précédemment introduit une « déclaration des droits » volontaire autour de l’IA, tandis que la NTIA fournissait aux développeurs un cadre volontaire de gestion des risques.
Washington cherche maintenant à transformer ces guides en législation obligatoire, les versions d’acteurs majeurs tels qu’OpenAI et Google étant mises en œuvre sans avoir à répondre à ces règles, mais les États-Unis ont souvent pris du retard à l’échelle mondiale lors de la rédaction de lois pour l’évolution de la technologie.
L’UE, par exemple, propose une catégorisation des risques pour sa loi sur l’intelligence artificielle de 2021, mais a été repoussée par des parties prenantes comme Microsoft, qui soutiennent que les chatbots ne peuvent pas être catégorisés car ils sont utilisés à des fins multiples.
C’est cette incertitude quant à la manière de gouverner correctement le développement de l’IA qui, selon Davidson, appelle l’intervention d’experts publics.
Il a ajouté : « De bons garde-corps mis en œuvre avec soin peuvent en fait promouvoir l’innovation. Ils permettent aux gens de savoir à quoi ressemble une bonne innovation, ils fournissent des espaces sûrs pour innover tout en répondant aux préoccupations très réelles que nous avons concernant les conséquences néfastes. »
>Voir aussi : ChatGPT vs GDPR – ce que les chatbots AI signifient pour la confidentialité des données
Les problèmes de confiance cités par le chef de BBC News
Le manque de transparence autour des outils d’intelligence artificielle a également été remis en question par la directrice générale de BBC News, Deborah Turness, qui a qualifié la diffusion de fausses nouvelles d' »effrayante ».
Selon The Times, Turnness a exprimé ses inquiétudes quant à l’impact de la désinformation partagée par l’IA sur la confiance du public lors d’un événement de la BBC à la fin du mois dernier, et a appelé à des mesures pour rétablir cette confiance.
Pour atténuer le partage de fausses informations, un «centre de journalisme médico-légal» physique serait prévu, abritant des experts qui examinent le matériel pour en vérifier l’exactitude, y compris la vérification des faits et la vérification des images et des vidéos – symbole d’un «changement existentiel», selon directeur général de BBC News.
Dans cette optique, Turness a suggéré d’allouer du temps d’antenne pour expliquer comment la BBC s’acquitte de son travail, ce qui, selon elle, « est un petit prix à payer pour une confiance croissante.
«La BBC est considérée comme une institution et on ne lui fait plus confiance et le public s’éloigne. Nous devons changer cette relation.
Les inquiétudes concernant la confiance du public ont également été partagées par le responsable de l’innovation éditoriale de The Guardian, Chris Moran, qui, à la suite de la récente citation par ChatGPT de rapports inexistants créditant la publication, a déclaré : « L’invention de sources est particulièrement troublante pour les organes de presse et les journalistes de confiance dont l’inclusion ajoute de la légitimité. et le poids d’un fantasme écrit de manière convaincante.
En rapport:
Ce que ChatGPT signifie pour les développeurs — ChatGPT remplacera-t-il les développeurs de logiciels, ou rendra-t-il leur travail plus agréable en faisant le gros du travail lorsqu’il s’agit d’écrire du code passe-partout, de déboguer et de tester ? Découvrez ici.
Tony McCandless – Le rôle de l’IA générative dans l’automatisation intelligente — Tony McCandless, directeur général Royaume-Uni, Irlande et Benelux chez SS&C Blue Prism, a parlé à Datarmine des clés du leadership en matière d’automatisation intelligente et de la tendance actuelle de l’IA générative.