погода искусственный интеллект Nvidia
/ forklog.com

Nvidia выпустила инструмент для создания безопасных ИИ-моделей

Компания Nvidia представила инструмент NeMo Guardrails, призванный помочь разработчикам обеспечить точность, уместность и безопасность генеративного ИИ.

NeMo Guardrails, the new toolkit for easily developing trustworthy LLM-based conversational applications.It works with all #LLMs and natively supports @LangChainAI, adding a layer of safety, security, and topical guardrails to existing applications. ➡️ https://t.co/CBHbTkcDUU pic.twitter.com/irYFmlHKdM— NVIDIA AI Developer (@NVIDIAAIDev) April 25, 2023 NeMo Guardrails позволяет разработчикам применять три различных типа ограничений для своих языковых моделей (LLM).

В частности, компании могут устанавливать «тематические барьеры», которые не позволят их приложениям обрабатывать нерелевантные запросы.

Читать на forklog.com
Сайт imag.one - агрегатор новостей из открытых источников. Источник указан в начале и в конце анонса. Вы можете пожаловаться на новость, если находите её недостоверной.

Сейчас читают

DMCA