
OpenAI финансирует академические исследования алгоритмов, которые могут предсказывать моральные суждения людей. Об этом сообщает TechCrunch со ссылкой на документы, поданные в IRS.
Стартап выделил грант исследователям из Университета Дьюка на проект под названием «Исследование ИИ-морали».
Детали работы остаются неизвестными, и главный исследователь Уолтер Синнотт-Армстронг отказался комментировать прогресс. Грант рассчитан до 2025 года.
Ранее Синнотт-Армстронг и другая участница проекта Яна Борг опубликовали книгу, в которой изучали потенциал ИИ как «морального GPS», помогающего людям принимать более обоснованные решения.
Их команда также разработала алгоритм с «моральной направленностью», который помогает определять, кому лучше отдать донорские почки. Кроме того, они изучили ситуации, в которых люди предпочли бы делегировать принятие решений ИИ.
Цель финансируемой OpenAI работы заключается в обучении алгоритмов предсказывать «моральные суждения человека» в конфликтных ситуациях в области медицины, права и бизнеса.
Напомним: OpenAI под руководством Сэма Альтмана готовится к запуску ИИ-агента под кодовым названием «Оператор».