Команда Google DeepMind создала группу для обучения ИИ этике

Команда Google DeepMind создала группу для обучения ИИ этике
  • 06.10.17
  • 0
  • 8891
  • фон:

Корпорация Google уже давно ведет разработки собственного искусственного интеллекта под названием DeepMind. Для дальнейшего развития своей технологии, как пишет издание Engadget, эксперты, работающие над ИИ, организовали группу, которая будет изучать моральные вопросы развития искусственного разума.

Члены новой группы займутся исследованием того, как ИИ меняет мир, можно ли его контролировать (и нужно ли это), а также вопросы того, как обеспечить непредвзятость его решений. Стоит отметить, что подобная группа у Google была уже на протяжении полутора лет, однако только сейчас штат был значительно увеличен (с 8 до 25 человек), а вопросы с «локальных» сместились на «глобальные». У новоиспеченной команды будет 6 основных областей работы: влияние ИИ на частную жизнь людей, прозрачность и объективность искусственного разума в принятии решений, влияние ИИ на экономику, подчинение человеку, изучение понятий морали и ценности жизни, поиск способов решения глобальных задач.

Основной целью, которую ставит перед собой группа исследователей, станет возможность развития алгоритмов, которые могли бы «привить» этику искусственному разуму, который затем мог бы передавать полученный опыт подобно тому, как мы воспитываем детей, разъясняя им, что хорошо, а что плохо. Тем не менее, хоть все это является большим успехом в развитии ИИ, такое решение остается спорным. Несмотря на то, что создание такого комитета говорит о серьезности намерений крупных корпораций в области разработок искусственного интеллекта, немного страшно осознавать, что от их решений и того, чему они обучат свой ИИ, могут сильно зависеть практически все аспекты жизни будущих поколений людей.

Источник