html LLM03: 학습 데이터 오염 (Training Data Poisoning)
← 목록으로 돌아가기

LLM03: 학습 데이터 오염 (Training Data Poisoning)

개요

LLM이 학습하는 데이터를 조작하여 모델의 미래 행동, 출력 또는 보안에 영향을 미치는 공격입니다. 이는 LLM이 오도된, 편향된, 또는 악의적인 정보를 생성하게 만들 수 있습니다.

예상되는 영향

LLM의 신뢰성 및 정확성 저하, 특정 주제에 대한 편향된 정보 생성, LLM의 악의적인 행동 유발.

완화 방법

학습 데이터 소스에 대한 강력한 보안 감사, 데이터 검증 및 무결성 검사, 이상 탐지 시스템, 신뢰할 수 있는 데이터 소스만 사용.