Tout en déclarant que les chatbots de nouvelle génération comme ChatGPT pourraient « améliorer presque tous les aspects de nos vies », le directeur général d’OpenAI, Altman, a identifié un éventuel « dommage significatif » causé à l’échelle mondiale par la technologie et l’industrie comme sa pire crainte lorsqu’il discutait d’une éventuelle réglementation.
Altman a insisté sur le fait que l’IA générative pourrait jouer un rôle clé pour surmonter les défis mondiaux tels que le changement climatique et la guérison du cancer.
Cependant, des inquiétudes ont été partagées devant le Sénat autour d’une éventuelle influence sur les élections, les marchés financiers, le marché du travail et la création de « personnes contrefaites » par des acteurs de la menace.
En rapport:
Qu’est-ce que l’IA générative et ses cas d’utilisation ? — L’IA générative est une merveille technologique destinée à changer notre façon de travailler, mais que fait-elle et quels sont ses cas d’utilisation pour les CTO ?
Comment se préparer à l’impact de l’IA partout — L’IA générative inaugure une nouvelle vague d’informatique dans les entreprises – voici comment nous pouvons conserver la confiance dans et à travers l’IA tout en stimulant l’innovation.
En ce qui concerne la réglementation à venir, Altman a suggéré un système de licence non pas pour ce dont les modèles sont capables aujourd’hui, mais à l’avenir avec l’intelligence générale artificielle ; ainsi que des normes de sécurité et des audits indépendants.
« Le gouvernement américain pourrait envisager une combinaison d’exigences de licence et de test pour le développement et la publication de modèles d’IA au-dessus d’un seuil de capacités », a-t-il déclaré aux sénateurs.
En outre, le directeur général d’OpenAI a déclaré que la présence d’un utilisateur humain ou d’IA doit être clairement distinguée pour le bénéfice des consommateurs.
En comparant l’adaptation possible à la présence de l’IA à la prise de conscience que les images peuvent être photoshoppées, Altman a déclaré « ce sera comme ça – mais sous stéroïdes. L’interactivité, la capacité à vraiment modéliser [and] prédire que les humains vont nécessiter une combinaison d’entreprises faisant ce qu’il faut, de réglementation gouvernementale et d’éducation du public ».
La chef de confiance d’IBM, Christina Montgomery, également présente devant le Sénat, a déclaré que l’atténuation des méfaits de l’IA « tout revient à la transparence ; divulgation de la façon dont nous formons l’IA et continue [technology and organisational] gouvernance ».
Le scientifique cognitif Gary Marcus, quant à lui, a recommandé des mesures similaires à celles appliquées par la Food and Drug Administration (FDA), ainsi qu’un financement pour la recherche sur la sécurité.
« Demande nuisible »
Interrogé par le Sénat sur ce qui constituerait une « demande préjudiciable » pour le modèle GPT-4, Altman a cité un contenu violent qui encourage l’automutilation, ainsi que certains contenus pour adultes.
En réponse, le sénateur Mazie Hirono a souligné la capacité des LLM à produire des images fausses et réalistes, un exemple cité étant celui de Donald Trump arrêté par la police.
La désinformation, ainsi que les préjugés et autres limites, se sont récemment révélées être sur le radar d’une «équipe rouge» embauchée par le développeur GPT-4 OpenAI.
La touche humaine
Alors que le potentiel de remplacement des emplois a été discuté lors de l’audience du Sénat, Jeremy Rafuse, vice-président et responsable de l’espace de travail numérique chez GoTo, a souligné la nécessité de maintenir les employés humains impliqués dans le processus de formation.
« Avec l’essor exponentiel des moteurs d’IA, les personnalités publiques appellent les responsables à » réglementer avant qu’il ne soit trop tard « en raison de l’anxiété croissante liée à l’IA – serai-je remplacé par un robot ? Mais il nous manque quelque chose ici lorsque nous remettons en question l’IA : la touche humaine », a déclaré Rafuse.
« Les êtres humains ont la capacité innée de remettre en question quand les choses ne vont pas tout à fait, en prenant un leadership actif dans la façon dont leurs systèmes fonctionnent. Le support humain peut offrir de l’empathie et un soutien émotionnel aux utilisateurs frustrés, aidant à établir une connexion plus forte entre les utilisateurs et l’équipe de support informatique. Ce n’est qu’aux côtés de l’expertise humaine que l’IA et l’apprentissage automatique avancé peuvent fonctionner efficacement.
« En entraînant les systèmes d’IA et en intégrant les commentaires humains, l’IA peut améliorer sa précision et sa réactivité au fil du temps. Cela renforcera les capacités informatiques de l’entreprise en réduisant les temps d’arrêt et en fonctionnant plus efficacement.