denis19 шт. Мичиган общество политика google gemini denis19 шт. Мичиган
/ habr.com

В Google пояснили, что ответ нейросети Gemini с просьбой умереть пользователю нарушил политики компании

В Google пояснили, что ответ нейросети Gemini с просьбой умереть пользователю нарушил политики компании. Разработчики системы изучили ситуацию и предприняли меры, чтобы подобные выходные данные были заблокированы.Ранее Google заявляла, что у чат-бота Gemini есть фильтры безопасности, которые не позволяют ИИ участвовать в неуважительных, сексуальных, жестоких или опасных обсуждениях и поощрять вредоносные действия.«Большие языковые модели иногда могут отвечать бессмысленными ответами, и это пример этого.

Этот ответ нарушил наши политики, и мы приняли меры, чтобы предотвратить возникновение подобных результатов», — пояснили СМИ в Google.Профильные эксперты считают, что, хотя Google назвала это сообщение чат-бота «бессмысленным», оно могло привести к более серьёзным и потенциально фатальным последствиями.

Например, если бы кто-то, кто был один и в плохом психическом состоянии, потенциально подумывая о причинении себе повреждений, прочитал что-то подобное, это действительно могло бы вывести такого человека из себя.Ранее студентка колледжа в Мичигане Видхай Редди сообщила, что нейросеть Google Gemini вежливо пожелала ей умереть после множества запросов по выполнению домашнего задания. «Мне хотелось выбросить все свои устройства в окно.

Читать на habr.com
Сайт imag.one - агрегатор новостей из открытых источников. Источник указан в начале и в конце анонса. Вы можете пожаловаться на новость, если находите её недостоверной.

Сейчас читают

DMCA