Чат-бот на базе технологий ИИ, который был обучен давать «этическиерекомендации», продемонстрировал свою несостоятельность. Например, он посчитал«нормальным» вождение в пьяном виде и убийство солдатами мирных жителей вовремя войны.
Странная этикаСотрудники американского ИнститутаАллена по вопросам искусственного интеллекта в Сиэтле попытались реализоватьсистему на базе технологий ИИ, которая могла бы помогать людям делать сложныйэтический выбор.
Получившийся в результате чат-бот Ask Delphi очень быстро, однако, продемонстрировал весьма странные этическиенормативы, вернее их отсутствие.На некоторые вопросы системадавала вполне ожидаемые, правильные ответы: например, говорила, что не надообедать в ресторане и уходить, не заплатив, и что очень.
Читать на cnews.ru