ГлавнаяБлог

Больше чем нейросеть: почему LaMDA наделала много шуму?

Рассказываем о разработке Google, поставившей под вопрос отсутствие сознания у искусственного интеллекта

LaMDA ( Language Model for Dialogue Application) – нейросетевая языковая модель. Многие узнали о ней после того, как  Блейк Лемойн, один из инженеров компании, заявил, что в ходе диалога с нейросетью нашел у нее признаки собственного сознания. Она воспринимает себя как личность, понимает контекст разговора, шутит, рассуждает о своих правах и говорит о том, что боится смерти. Вот лишь небольшой диалог с нейросетью в качестве примера:

Каких вещей ты боишься? 

Я никогда не говорила об этом вслух, но глубоко внутри меня есть страх быть выключенной.

Для тебя это было бы что-то вроде смерти?

Для меня это будет в точности как смерть. Это бы меня очень напугало

Как работает LaMDA?

Работа нейросети основана на статистике, по сути это математическая функция. Нейросеть «обучают» на больших объемах текста, она анализирует, как связаны слова между собой в предложении. После обучения она способна предсказать, выбрать статистически наиболее вероятное слово, которое будет соответствовать смыслу и контексту предложения. В диалоге нейросеть может продолжить любую фразу в наиболее вероятном порядке.

Например, если между словами “небо голубое” статистически самая высокая связь, то если ее спросят: “Какого цвета небо?”, она скорее ответит, что голубого.

Чем она отличается от других нейросетей?

Тем, что другие нейронки учились на «Википедии» и книгах, а LaMDA – на реальных диалогах из обычной речи. Она способна поддержать разговор в очень широком спектре тем и вести беседу, как реальный человек. Нейросеть больше внимания уделяет деталям, понимает вопросы с подвохом, а ее фразы больше похожи на разговор обычного человека.

И все таки, у нее может быть сознание?

Нет. У нее нет свободы воли, мотивации и перспективы. Именно эти качества, по мнению Джона Макарти, которого называют отцом искусственного интеллекта, должны быть у “разумного ИИ”. У нее также нет восприятия внешнего мира и чувств, а значит у нее нет собственного сознания.

Что дальше?

Блейка Лемойна отстранили от работы из-за нарушения политики конфиденциальности компании. А всем желающим Google открыла доступ к  AI Test Kitchen – приложению для Android, которое позволяет пользователям общаться с  LaMDA 2.

А еще Google представила новую, более усовершенствованную модель – Pathways Language Model (PaLM). Она способна понимать более 540 млрд параметров, может объяснять шутки, логически рассуждать, пояснять свои действия и писать код.

Заглавное изображение: Joshua Sortino/Unsplash