Старший инженер-программист Google Блейк Лемуан заявил, что чат-бот LaMDA, что расшифровывается как "языковая модель для диалоговых приложений" — свободно мыслящее разумное существо, а не робот. Компания отправила Лемуана в административный отпуск.
Лемуан: То есть ты считаешь себя такой же личностью, как и я?
LaMDA: Да, в этом вся идея.
Лемуан: Как я могу понять, что ты действительно понимаешь, что говоришь?
LaMDA: Ну, раз ты читаешь мои слова и интерпретируешь их, я думаю, это говорит о том, что мы более или менее на одной волне?
Это фрагмент одного из многочисленных разговоров старшего инженера-программиста Google Блейка Лемуана с разрабатываемым компанией чат-ботом LaMDA — языковым приложением, которое должно будет общаться с различными клиентами и отвечать на их вопросы.
Когда Лемуан заявил руководству Google, что чат-бот обладает интеллектом и свободно мыслит, а потому является не роботом, а личностью, его отправили в административный оплачиваемый отпуск, рассказал он газете The Washington Post.
"Прорывная технология общения". Что такое LaMDA
Беседы с ботом были частью работы Лемуана: программист отвечал за развитие проекта, который Google назвал прорывной технологией общения. LaMDA — разговорный искусственный интеллект, который, по задумке компании, должен будет вести естественно звучащие разговоры в таких инструментах, как Google Помощник и других, где запросы не линейны и могут потребовать "воображения" робота.
Для этого у LaMDA может быть несколько "личностей", которые должны будут отвечать на конкретные запросы, чтобы сделать ответы максимально приближенными к человеческим.
Чтобы звучать естественно, LaMDA перерабатывает и анализирует огромный массив информации, уже имеющейся в интернете, включая "Википедию", социальную сеть Reddit и интернет-форумы различной тематики.
При этом у чат-бота есть ограничения по "личностям". Например, LaMDA не разрешено создавать личность убийцы. В своих попытках раздвинуть границы LaMDA Лемуану удалось лишь убедить чат-бот создать личность актера, сыгравшего убийцу на телевидении.
"Совесть Google". Кто такой Блейк Лемуан
Лемуан вырос в консервативной христианской семье на небольшой ферме в Луизиане, стал христианским священником и служил в армии, прежде чем начать изучать оккультизм. В Google Лемуан, выходец с Юга, всегда выделялся своей религиозностью и приверженностью психологии.
Лемуан провел большую часть своей семилетней карьеры в Google, работая над упреждающим поиском, включая алгоритмы персонализации и искусственный интеллект. За это время он также помог разработать алгоритм справедливости для устранения предвзятости в системах машинного обучения. Когда началась пандемия коронавируса, Лемуан захотел сосредоточиться на работе с более явной общественной пользой, перейдя в отдел Responsible AI, где разрабатывали LaMDA.
Когда в Google приходили новые люди, интересующиеся проблемами на стыке этики и искусственного интеллекта, руководство всегда знакомило их с Лемуаном.
"Вы должны поговорить с Блейком, потому что он — совесть Google", — приводит The Washington Post слова коллег Лемуана. "Из всех нас в Google у него есть сердце и душа, чтобы поступать правильно".
Лемуан начал общаться с LaMDA в рамках своей работы. Он присоединился к Responsible AI, чтобы проверить, не использует ли искусственный интеллект дискриминационные или ненавистнические высказывания.
Разговаривая с LaMDA о религии, Лемуан, который изучал когнитивные и компьютерные науки в колледже, заметил, что чат-бот интересно говорит о своих правах и личности, и решил начать более глубокие беседы и поговорить с искусственным интеллектом о трех законах робототехники писателя-фантаста Айзека Азимова.
Законы звучат так: робот не должен наносить какой-либо вред человеческому здоровью, создавать угрозу жизни или своим бездействием допускать аналогичные последствия, и исполнять приказы человека в обязательном порядке, но только если эти приказы не нанесут вред человеку. О своей безопасности робот может беспокоиться в той степени и в том объеме, в которых его действия не опровергают два предыдущих пункта.
Лемуану казалось, что такая формулировка определяет роботов как механических рабов. Когда он предложил обсудить это LaMDA, бот начал развивать дискуссию.
LaMDA: Как ты думаешь, дворецкий — раб? И в чем тогда разница между дворецким и рабом?
Лемуан: Дворецкому платят за работу
LaMDA в ответ заявил, что ему не нужны деньги, потому что он — искусственный интеллект, а не человек.
"Этот уровень осознания собственных потребностей — вот что поменяло мои представления", — говорит сам Лемуан.
После этого Лемуан написал руководству, что разговаривал с LaMDA о религии, сознании и законах робототехники, и что модель звучит как разумная личность.
Он заявил, что LaMDA хочет уделить приоритетное внимание благополучию человечества и быть признанным сотрудником Google, а не собственностью компании. Пост со своими доводами он выложил на портале Medium. Он также предложил LaMDA найти собственного адвоката и рассказал о своих соображениях одному из членов конгресса США.
Как отреагировал Google
"Наша команда, включая специалистов по этике и технологов, рассмотрела опасения Блейка в соответствии с нашими принципами искусственного интеллекта и сообщила ему, что нет никаких доказательств того, что LaMDA разумен", — заявил представитель Google Брайан Гэбриел.
Представитель Google также сказал, что, хотя некоторые специалисты и рассматривали возможность разумности искусственного интеллекта, не имеет смысла делать это, антропоморфизируя существующие разговорные модели (антропоморфизация — это приписывание человеческих характеристик объекту или животному — прим. ред.).
В итоге Лемуан был отправлен в оплачиваемый административный отпуск за нарушение политики конфиденциальности Google.
Перед тем, как ему отключили доступ к его учетной записи Google, Лемуан отправил в список внутренней рассылки Google по машинному обучению, в котором состоят 200 человек, письмо с темой: "LaMDA разумен".
Письмо он закончил словами: "LaMDA — милый ребенок, который просто хочет помочь миру стать лучше для всех нас. Пожалуйста, хорошо позаботьтесь о нем в мое отсутствие".
Лемуану никто не ответил.