Сегодня Институт безопасности искусственного интеллекта США заключил соглашения с двумя ИИ-стартапами, Anthropic и OpenAI. В соответствии с ними институт будет получать ранний доступ к новым моделям компаний (Claude и ChatGPT) до их публичного релиза и предоставлять им обратную связь о возможных улучшениях безопасности.
Cоглашения также предполагают совместную оценку безопасности, исследования и тестирования искусственного интеллекта. Институт безопасности искусственного интеллекта США был создан в 2023 году при Национальном институте стандартов и технологий (The National Institute of Standards and Technology, NIST).
Его задача — разрабатывать рекомендации по безопасности ИИ и снижать риски, связанные с передовыми ИИ-системами. Перед оценкой безопасности новых моделей институт будет консультироваться с аналогичным учреждением в Великобритании.Подобное сотрудничество институт уже заключил с Meta*, компания предоставляет организации ранний доступ к своим моделям Llama.
Читать на habr.com