Мы в социальных сетях:

О нас | Помощь | Реклама

© 2008-2025 Фотострана

Реклама
Получить
Поделитесь записью с друзьями
Мозгохранилище
Мозгохранилище
«Большие языковые модели иногда могут отвечать бессмысленно, и это как раз такой пример».

Google объяснила, почему их нейросеть Gemini https://vk.com/habr_career?w=wall-46638176_121446&from=play.feed.intextlink" title="пожелала пользователю смерти">пожелала пользователю смерти после многочисленных запросов. В компании признали, что ответ нарушил политику компании. Разработчики изучили ситуацию и приняли меры, чтобы в будущем подобные сообщения блокировались.

Ранее Гугл заявлял, что у чат-бота есть фильтры безопасности, которые не позволяют ИИ участвовать в неуважительных, сексуальных, жестоких или опасных обсуждениях и поощрять вредоносные действия: https://u.habr.com/rRaZP
«Большие языковые модели иногда могут отвечать бессмысленно, и это как раз такой пример». Google ...
Рейтинг записи:
5,0 - 0 отзывов
Нравится0
Поделитесь записью с друзьями
Никто еще не оставил комментариев – станьте первым!
Наверх