Guardrails 노드 문서
n8n의 Guardrails 노드 문서입니다. 텍스트에 안전, 보안, 콘텐츠 정책을 적용하는 방법을 안내합니다.
Guardrails 노드를 사용하여 텍스트에 안전, 보안, 콘텐츠 정책을 적용합니다. AI 모델로 보내기 전에 사용자 입력을 검증하거나, 워크플로에서 사용하기 전에 AI 모델의 _출력_을 확인하는 데 사용할 수 있습니다. LLM 기반 가드레일에는 Chat Model 연결 필요 이 노드는 LLM 기반 가드레일이 있는 텍스트 위반 확인 작업을 사용할 때 모델 입력에 Chat Model 노드가 연결되어 있어야 합니다. 많은 가드레일 검사(예: Jailbreak, NSFW, 주제 정렬)는 LLM 기반이며 이 연결을 사용하여 입력 텍스트를 평가합니다. 노드 파라미터 # 다음 파라미터를 사용하여 Guardrails 노드를 구성합니다. 작업 # 노드의 동작을 정의하는 작업 모드입니다. 텍스트 위반 확인 : 전체 가드레일 세트를 제공합니다. 위반이 있으면 항목이 실패 분기로 전송됩니다. 텍스트 정제 : URL, 정규 표현식, 비밀 키 또는 전화번호, 신용카드 번호와 같은 개인 식별 정보(PII)를
