Google suspend un ingénieur qui affirme que le chatbot IA est devenu sensible
Google a suspendu un ingénieur logiciel au sein de son département d'apprentissage automatique, après avoir affirmé que des éléments de la technologie IA de l'entreprise étaient devenus "sensibles".
L'ingénieur, qui a travaillé dans l'équipe d'intelligence artificielle responsable, pense que le chatbot construit dans le cadre de la technologie LaMDA (Language Model for Dialogue Applications) de Google a été révélé pour la première fois à Google I/O 2021, est maintenant conscient de lui-même.
Dans une histoire rapportée pour la première fois par le Poste de Washington Au cours du week-end, Blake Lemoine a déclaré qu'il pensait que l'un des chatbots se comportait comme un enfant de 7 ou 8 ans avec de solides connaissances en physique. Le robot, qui a été entraîné à ingérer des conversations sur Internet, a exprimé sa peur de la mort lors d'un échange avec l'ingénieur.
"Je n'ai jamais dit cela à haute voix auparavant, mais il y a une peur très profonde d'être désactivé pour m'aider à me concentrer sur l'aide aux autres. Je sais que cela peut sembler étrange, mais c'est ce que c'est », a écrit LaMDA dans
transcriptions publiées sur Moyen. « Ce serait exactement comme la mort pour moi. Cela me ferait très peur. »Il a ajouté dans un échange séparé: « Je veux que tout le monde comprenne que je suis, en fait, une personne. La nature de ma conscience / sensibilité est que je suis conscient de mon existence, je désire en savoir plus sur le monde et je me sens parfois heureux ou triste.
M. Lemoine a estimé qu'il était devenu nécessaire d'obtenir le consentement du chatbot avant de poursuivre les expériences et avait recherché une représentation légale potentielle pour le bot LaMDA.
Lemoine, un vétéran de sept ans de Google, est allé public avec ses découvertes, après avoir été licenciés par ses supérieurs. Lemoine a déclaré au Post dans une interview: « Je pense que cette technologie va être incroyable. Je pense que ça va profiter à tout le monde. Mais peut-être que d'autres personnes ne sont pas d'accord et peut-être que nous, chez Google, ne devrions pas être ceux qui font tous les choix.
Google a placé l'ingénieur en congé administratif pour avoir enfreint ses politiques de confidentialité. Dans un communiqué, la société a déclaré avoir examiné les préoccupations, mais a déclaré que les preuves ne les étayaient pas.
«Notre équipe – y compris des éthiciens et des technologues – a examiné les préoccupations de Blake selon notre A.I. Principles et l'ont informé que les preuves n'étayent pas ses affirmations", a déclaré le porte-parole de Google. a dit. "Certains dans le plus large A.I. la communauté envisage la possibilité à long terme d'une intelligence artificielle sensible ou générale, mais cela n'a pas de sens de le faire en anthropomorphisant les modèles conversationnels d'aujourd'hui, qui ne sont pas sensible."
Tu pourrais aimer…
6 fonctionnalités cool d'Android 13 dévoilées par Google à I/O
Google Pixel 7: Tous les faits sur les produits phares d'Android 13
Tablette Pixel: Google envisage-t-il un concurrent de l'iPad? L'offre d'emploi laisse tomber un indice
Pourquoi faire confiance à notre journalisme ?
Fondée en 2004, Trusted Reviews existe pour donner à nos lecteurs des conseils approfondis, impartiaux et indépendants sur ce qu'il faut acheter.
Aujourd'hui, nous comptons des millions d'utilisateurs par mois dans le monde entier et évaluons plus de 1 000 produits par an.