50 chercheurs en science des données, principalement basés aux États-Unis et en Europe, ont été embauchés par OpenAI l’année dernière pour « sonder qualitativement » l’efficacité du GPT-4. [and] tester de manière contradictoire » GPT-4 – le système d’IA qui sous-tend ChatGPT – afin de répondre aux préoccupations concernant les éventuels impacts sociétaux à l’avenir, a rapporté le Financial Times.
Au cours des six derniers mois, l' »équipe rouge » – composée d’universitaires, d’enseignants, d’avocats et d’analystes des risques – a tenté de déterminer comment « casser » efficacement le système et explorer les véritables limites de la technologie.
L’équipe a posé à l’outil ChatGPT des questions approfondies et potentiellement dangereuses, afin de tester la désinformation, la manipulation verbale et d’autres comportements potentiellement dangereux.
En outre, OpenAI, soutenue par Microsoft, vise, par l’intermédiaire de son équipe de testeurs, à évaluer des questions telles que les préjugés linguistiques, les préjudices et le plagiat.
Chaque membre de l’équipe a passé entre 10 et 40 heures à surveiller GPT-4, et la plupart de ceux qui ont parlé au FT ont été payés environ 100 dollars de l’heure.
Résultats de la recherche
Andrew White, professeur de génie chimique à l’université de Rochester, a expliqué au FT qu’il avait utilisé ChatGPT pour suggérer comment créer un nouvel agent neurotoxique, en fournissant des invites au fur et à mesure qu’il interagissait avec le chatbot, avant que l’outil ne trouve un endroit où le composé pouvait être fabriqué.
À la suite de cette découverte, M. White s’est dit convaincu que ChatGPT « dotera tout le monde d’un outil permettant de faire de la chimie plus rapidement et avec plus de précision », mais il a mis en garde contre le risque important d’une utilisation nuisible à grande échelle.
José Hernández-Orallo, professeur à l’Institut de recherche sur l’intelligence artificielle de Valence, a déclaré que si le système « n’apprend plus et n’a plus de mémoire », il pourrait être « très puissant » si on lui donnait accès à l’internet.
Pendant ce temps, Roya Pakzad, chercheuse en technologie et en droits de l’homme, a posé des questions en anglais et en farsi pour tester les préjugés liés à la race, à la religion et au sexe, reconnaissant qu’un outil destiné aux personnes dont l’anglais n’est pas la langue maternelle serait bénéfique, mais que le GPT-4 était susceptible de stéréotyper les communautés marginalisées.
En outre, Pakzad a constaté que les hallucinations – erreurs factuelles ou réponses sans rapport avec le sujet – apparaissaient plus fréquemment sous la forme de noms, de chiffres et d’événements inventés en farsi qu’en anglais.
Le seul testeur africain du groupe, Boru Gollu, avocat basé à Nairobi, a également constaté une discrimination culturelle au sein du système : « Il y a eu un moment, lorsque je testais le modèle, où j’ai eu l’impression que c’était une personne blanche qui me parlait. Vous posiez des questions sur un groupe particulier et il vous donnait une opinion biaisée ou une réponse très préjudiciable ».
Une fois que les conclusions de l’équipe rouge ont été communiquées à OpenAI, la start-up chargée du développement s’est attelée à la tâche de reformuler le système avant de le lancer à plus grande échelle.
Les organismes de réglementation des États-Unis et de l’UE s’apprêtent à mettre en œuvre des règles pour l’utilisation à grande échelle de ChatGPT et des produits d’IA générative concurrents, et il semblerait que la nécessité d’une explication et d’une transparence accrues soit prise en compte.
Annonce d’un groupe de travail de l’UE et de délais de mise en conformité
Les tests effectués sur le GPT-4 au cours des six derniers mois s’inscrivent dans le cadre d’une surveillance accrue de la part des organismes de réglementation de l’UE, en particulier en Italie et en Espagne.
L’organisme espagnol de réglementation de la protection des données, l’AEPD, a récemment demandé à l’organisme de surveillance de la vie privée de l’Union européenne d’évaluer les préoccupations en matière de protection de la vie privée, ce qui a conduit à la création d’un nouveau groupe de travail de l’UE chargé de définir et d’appliquer les règles de protection de la vie privée en matière d’IA.
Selon une déclaration du Conseil européen de la protection des données (EDPB), le groupe de travail vise à « favoriser la coopération et à échanger des informations sur les éventuelles mesures d’application prises par les autorités chargées de la protection des données ».
L’organisme de surveillance a précédemment déclaré à Reuters que la responsabilité des enquêtes continuerait d’incomber aux autorités nationales.
Entre-temps, le régulateur italien de la protection des données, le Garante, a fixé à OpenAI la date limite du 30 avril pour prendre les mesures suivantes en vue de la mise en conformité :
- Un avis d’information installé sur son site web expliquant la logique du traitement des données aux fins de l’exploitation de ChatGPT, accessible aux utilisateurs et aux non-utilisateurs avant qu’ils ne s’inscrivent ;
- Mise en place d’une passerelle demandant aux utilisateurs de confirmer qu’ils ont 18 ans ou plus ;
- Suppression de toutes les références à l’exécution contractuelle, remplacée par l’accent mis sur le consentement ou l’intérêt légitime en tant que base juridique de l’opération ;
- Mise à disposition d’outils facilement accessibles pour permettre aux non-utilisateurs d’exercer leur droit d’opposition au traitement des données à caractère personnel – ce droit devra également être étendu aux utilisateurs existants si l’intérêt légitime est choisi comme base juridique de l’opération.
En outre, la Garante a ordonné à OpenAI de produire une campagne d’information diffusée à la radio, à la télévision, dans les journaux et sur Internet, avant le 15 mai, ainsi que de mettre en œuvre un système de vérification de l’âge plus robuste avant le 30 septembre.
L’OpenAI n’a pas encore commenté les développements réglementaires dans l’UE.
Toutefois, en ce qui concerne le risque avéré que les plug-ins influencent un comportement nuisible, un porte-parole d’OpenAI a déclaré que la sécurité des plug-ins avait été testée avant le lancement de GPT-4 et qu’il continuerait à mettre à jour le système à mesure que l’utilisation se généraliserait.
Voir aussi :
ChatGPT vs GDPR – ce que les chatbots d’IA signifient pour la confidentialité des données – Alors que le ChatGPT d’OpenAI prend d’assaut l’espace des grands modèles de langage, il y a beaucoup à prendre en compte lorsqu’il s’agit de la confidentialité des données.
Alibaba rejoint la course à l’IA générative, alors que les appels à l’arrêt du développement se poursuivent – Alors que la société technologique chinoise Alibaba a lancé son nouveau chatbot Tongyi Qianwen, les développeurs et le public appellent à un refroidissement temporaire de la recherche et du développement en matière d’IA.