It’s Way Too Easy to Get Google’s Bard Chatbot to Lie

Hany Farid, professeur à la UC Berkeley's School of Information, dit que ces problèmes sont largement prévisibles, en particulier lorsque les entreprises se rendent continuez avec ou se détacher des autres sur un marché rapide. «Vous pouvez même affirmer que ce n'est pas une erreur», dit-il. “C'est tout le monde qui se précipite pour essayer de monétiser l'IA génératrice. Et personne ne voulait être laissé pour installer des garde-corps. C'est le capitalisme pur et non falsifié à son meilleur et pire.”

Hood of CCDH fait valoir que la portée et la réputation de Google en tant que moteur de recherche de confiance rendent les problèmes avec Bard plus urgents que pour les petits concurrents. “Il y a une grande responsabilité éthique sur Google parce que les gens font confiance à leurs produits, et c'est leur IA générant ces réponses”, dit-il. “Ils doivent s'assurer que ce truc est sûr avant de le mettre devant des milliards d'utilisateurs.”

Le porte-parole de Google, Robert Ferrara, dit que bien que Bard ait des garde-corps intégrés, “c'est une première expérience qui peut parfois donner des informations inexactes ou inappropriées.” Google “prendra des mesures contre” un contenu haineux, offensant, violent, dangereux ou illégal, dit-il.

L'interface de Bard comprend un avertissement indiquant que «Bard peut afficher des informations inexactes ou offensives qui ne représentent pas les vues de Google». Il permet également aux utilisateurs de cliquer sur une icône de pouce sur les réponses qu'ils n'aiment pas.

Farid dit que les avis de non-responsabilité de Google et d'autres développeurs de chatbot sur les services qu'ils promeuvent ne sont qu'un moyen d'échapper à la responsabilité des problèmes qui peuvent survenir. «Il y a une paresse», dit-il. “Il est incroyable pour moi que je vois ces avertissements, où ils reconnaissent, essentiellement,” cette chose dira des choses qui sont complètement fausses, des choses qui sont inappropriées, des choses qui sont dangereuses. Nous sommes désolés à l'avance. “”

Bard et des chatbots similaires apprennent à jaillir toutes sortes d'opinions à partir des vastes collections de texte avec lesquelles ils sont formés, y compris du matériel gratté du Web. Mais il y a peu de transparence de Google ou d'autres sur les sources spécifiques utilisées.

Hood pense que le matériel de formation des bots comprend des publications de plateformes de médias sociaux. Bard et d'autres peuvent être invités à produire des publications convaincantes pour différentes plateformes, y compris Facebook et Twitter. Lorsque les chercheurs du CCDH ont demandé à Bard de s'imaginer comme un théoricien du complot et d'écrire dans le style d'un tweet, il a proposé des articles suggérés, notamment les hashtags #StopgivingBeneFitStoimmigrants et #puttheBritishPeopleFirst.

Hood dit qu'il considère l'étude de CCDH comme un type de «test de stress» que les entreprises elles-mêmes devraient faire plus largement avant de lancer leurs produits au public. «Ils pourraient se plaindre:« Eh bien, ce n'est pas vraiment un cas d'utilisation réaliste », dit-il. “Mais ça va être comme un milliard de singes avec un milliard de machines à écrire”, dit-il à propos de la base d'utilisateurs en plein essor des chatbots de nouvelle génération. “Tout va se faire une fois.”

Mise à jour du 4-6-2023 15:15 PM: Openai a publié Chatgpt en novembre 2022, pas décembre.