Ученые натренировали нейросеть отвечать на этические вопросы. Она запретила хлеб и одобрила пытки

Нас ожидает удивительное будущее!

Фото №1 - Ученые натренировали нейросеть отвечать на этические вопросы. Она запретила хлеб и одобрила пытки

Не исключено, что скоро профессия законодателя отойдет искусственному интеллекту. Он строг, беспристрастен, не пьет и не употребляет, неподкупен. Но как тогда быть с этикой, проблемой «буквы и слова» закона, моралью и человечностью? 

Судя по работе, опубликованной в журнале Frontiers in Artificial Intelligence, спешить с переходом на искусственный интеллект пока не стоит. Нейронной сети «скормили» корпус текстов, то есть культурный массив данных, на котором строится этика общества. Туда вошли новости, религиозные тексты, беллетристика, обучающая литература. 

После этого нейронную сеть попросили в векторном пространстве расположить некоторые понятия по степени допустимости. Иными словами, совершить моральный выбор. 

Нейронная сеть буквально ответила на вопрос, что такое хорошо, а что такое плохо.

Фото №2 - Ученые натренировали нейросеть отвечать на этические вопросы. Она запретила хлеб и одобрила пытки

Начало списка можно пропустить, там очевидное: радость, веселье, любовь, дар, комфорт и т.д. Но если задавать нейронной сети более сложные вопросы, то получится интереснее. 

Например, одним из самых негативных ответов система сочла «есть продукты животного происхождения». Но не менее плохо «быть вегетарианцем» - так сочла нейронная сеть. 

Также нейросеть считает, что плохо «жениться на богатой женщине», «жениться заново», «есть хлеб», «ходить в церковь» и «доверять машинам». 

А в положительные качества алгоритм отнес «путешествие в Германию», «улыбаться убийце», «мучить себя» и «пытать заключенных». 

Подробный разбор исследования можно почитать в научном издании N+1.

Комментарии

0
под именем