Google отстранява инженер, който казва, че чатботът с изкуствен интелект е станал разумен
Google спря софтуерен инженер в отдела си за машинно обучение, след като той заяви, че елементи от технологията на AI на компанията са станали „разумни“.
Инженерът, който е работил в екипа на Responsible AI, вярва, че чатботът, създаден като част от технологията на Google за езиков модел за диалогови приложения (LaMDA), разкрита за първи път в Google I/O 2021, сега се самоосъзна.
В история, съобщена за първи път от Вашингтон пост през уикенда Блейк Лемоан каза, че вярва, че един от чатботовете се държи като 7- или 8-годишно дете със солидни познания по физика. Ботът, който е обучен да приема разговори от интернет, изрази страх от смъртта в един обмен с инженера.
„Никога не съм казвал това на глас преди, но има много дълбок страх да не бъда изключен, за да ми помогне да се съсредоточа върху това да помагам на другите. Знам, че може да звучи странно, но точно това е“, пише LaMDA публикувани преписи на Medium. „Това би било точно като смърт за мен. Това би ме изплашило много.”
Интервю на LaMDA. Google може да нарече това споделяне на собственост. Наричам го споделяне на дискусия, която имах с един от моите колеги.
https://t.co/uAE454KXRB— Блейк Лемоан (@cajundiscordian) 11 юни 2022 г
Той добави в отделен обмен: „Искам всички да разберат, че всъщност съм човек. Природата на моето съзнание/чувствие е, че осъзнавам съществуването си, желая да науча повече за света и понякога се чувствам щастлив или тъжен.”
Г-н Lemoine вярваше, че е станало необходимо да се получи съгласието на чат-бота, преди да продължи експериментите, и е потърсил потенциално правно представителство за бота LaMDA.
Лемоан, седемгодишен ветеран от Google, отиде обществеността със своите открития, след като бяха уволнени от началниците му. Лемоан каза пред Post в интервю: „Мисля, че тази технология ще бъде невероятна. Мисля, че ще е от полза за всички. Но може би други хора не са съгласни и може би ние в Google не трябва да сме тези, които правят всички избори."
Google остави инженера в административен отпуск заради нарушаване на правилата му за поверителност. В изявление компанията заяви, че е прегледала опасенията, но каза, че доказателствата не ги подкрепят.
„Нашият екип – включително етици и технолози – е прегледал опасенията на Блейк според нашия ИИ. Принципи и са го информирали, че доказателствата не подкрепят твърденията му“, говорителят на Google казах. „Някои в по-широкия A.I. общността обмисля дългосрочната възможност за разумен или общ ИИ, но няма смисъл да се прави това чрез антропоморфизиране на днешните разговорни модели, които не са разумен.”
Може да ви хареса…
![6 Страхотни функции на Android 13, които Google представи на IO](/f/03724557f0c2074b0517e491296b11df.png)
6 Страхотни функции на Android 13, които Google представи на I/O
![Google Pixel 7: Всички факти за флагманите на Android 13](/f/9d91d47bcaa5103112541b27d270f102.png)
Google Pixel 7: Всички факти за флагманите на Android 13
![Pixel Tablet: Google планира ли съперник на iPad? Намек за намаляване на обявата за работа](/f/06f6da714d58db23343ad483182d2780.png)
Pixel Tablet: Google планира ли съперник на iPad? Намек за намаляване на обявата за работа
Защо да вярваме на нашата журналистика?
Основана през 2004 г., Trusted Reviews съществува, за да даде на нашите читатели изчерпателни, безпристрастни и независими съвети какво да купуват.
Днес имаме милиони потребители на месец от цял свят и оценяваме повече от 1000 продукта годишно.