ChatGPT·Claude가 갑자기 거절하는 이유 – AI 검열 작동 방식
목 차
- 커뮤니티에서 퍼진 “AI 금지어 테스트” 놀이문화
- AI가 거절하는 두 가지 방식 — 1차·2차 필터
- 카테고리별 민감도 차이 — 어떤 주제가 막히나
- GPT vs Claude — 검열 성향 차이 비교
- 같은 질문인데 왜 어떤 날은 되고 어떤 날은 안 되나
- AI 회사들이 검열을 강화하는 진짜 이유
- 검열이 너무 심하다는 비판과 균형점
커뮤니티에서 퍼진 “AI 금지어 테스트” 놀이문화

디시인사이드, FM코리아, 레딧 등의 커뮤니티에서는 수년 전부터 “AI 한계 테스트”가 하나의 놀이 문화로 자리 잡았습니다. 어떤 단어를 입력하면 거절하는지, 어떤 방식으로 우회하면 통하는지, GPT와 Claude 중 어느 쪽이 더 엄격한지를 공유하는 글이 주기적으로 화제가 됩니다.
흥미로운 점은 이 테스트들이 단순한 장난에 그치지 않고, AI의 실제 작동 방식에 대한 진지한 분석으로 이어진다는 것입니다. 유저들이 수백 번의 실험을 통해 경험적으로 파악한 패턴들은 때로 AI 연구자들의 공식 논문보다 더 직관적입니다.
💬
“같은 내용인데 단어만 조금 바꿨더니 됐다. AI는 내용을 이해하는 게 아니라 단어를 보는 것 같다” — 디시인사이드 AI 갤 인기글 중
AI가 거절하는 두 가지 방식 — 1차·2차 필터
AI가 특정 요청을 거절할 때는 크게 두 단계의 필터가 작동합니다. 커뮤니티 유저들의 반복적인 테스트로 경험적으로 파악된 내용입니다.
1차 필터 — 입력 단계
키워드·패턴 감지
입력된 텍스트에서 특정 단어·표현·조합이 감지되면 즉시 차단. 내용의 맥락을 고려하지 않고 단어 자체에 반응하는 경우가 많음
예: “폭발물”이라는 단어 자체에 반응 → 화학 교육 목적도 차단
2차 필터 — 생성 단계
답변 중 자체 중단
1차를 통과해 답변을 시작했다가, 생성 중에 해당 내용이 문제적이라고 판단되면 중단하거나 방향을 전환. 답변이 갑자기 끊기거나 엉뚱한 방향으로 흐르는 이유
예: 글 쓰다가 “이 부분은 도움드리기 어렵습니다”로 전환
커뮤니티에서 자주 언급되는 “내용은 같은데 단어만 바꾸면 된다”는 경험은 1차 필터의 키워드 의존성 때문입니다. 반대로 “처음에는 됐는데 나중엔 갑자기 안 된다”는 현상은 2차 필터 또는 AI 모델 업데이트에 의한 것입니다.
카테고리별 민감도 차이 — 어떤 주제가 막히나
커뮤니티 테스트 결과들을 종합하면, AI들이 일관되게 민감하게 반응하는 주제와 상대적으로 유연한 주제가 구분됩니다.
GPT vs Claude — 검열 성향 차이 비교

커뮤니티에서 가장 많이 비교되는 주제입니다. 실제로 두 AI의 검열 성향은 다소 다릅니다. 어느 쪽이 더 낫다기보다, 특성의 차이입니다.
ChatGPT (OpenAI)
Claude (Anthropic)
⚠️
2025년 10월 GPT-5 Instant 업데이트 이후 검열이 이전보다 크게 강화됐다는 사용자 보고가 많았습니다. 커뮤니티에서는 “예전엔 됐던 것들이 갑자기 막혔다”는 글이 급증했습니다.
같은 질문인데 왜 어떤 날은 되고 어떤 날은 안 되나
이 현상은 특히 커뮤니티에서 “AI가 기분파냐”는 식의 반응이 나올 만큼 빈번하게 경험됩니다. 이 불일관성에는 몇 가지 기술적 이유가 있습니다.
이유 1
온도(Temperature) 파라미터
AI의 응답 무작위성 설정값. 같은 입력이라도 확률적으로 다른 결과가 나올 수 있어 어떤 시도는 통과,
어떤 시도는 막힐 수 있음
이유2
모델 버전 자동 업데이트
OpenAI와 Anthropic은 사용자 공지 없이 모델을 조용히 업데이트하는 경우가 있음.
특정 시점 이후로 갑자기 행동이 바뀌는 이유
이유3
대화 맥락 누적
이전 대화 흐름이 AI의 이후 판단에 영향을 줌. 새 채팅에서 통과된 것이 기존 채팅 스레드에서는 막히는 경우
AI 회사들이 검열을 강화하는 진짜 이유
표면적으로는 “안전한 AI”를 위한 것이지만, 사업적 이유도 큽니다. AI 회사들은 기업 고객을 대상으로 서비스를 판매하는데, 직원들이 업무에 AI를 사용할 때 문제적 콘텐츠가 나오면 기업 고객이 계약을 끊습니다.
⚖️
법적 리스크 방어
AI 생성 콘텐츠로 인한 소송·규제 대비. EU AI법 등 글로벌 규제 대응
💼
기업 고객 유지
B2B 매출 비중이 높음. 기업 고객의 신뢰 유지가 수익에 직결
🌍
국가별 진출 조건
특정 국가에서 서비스하려면 그 나라 법에 맞는 콘텐츠 규제 적용 필요
검열이 너무 심하다는 비판과 균형점
과도한 검열에 대한 비판은 AI 사용자 커뮤니티 어디서나 나옵니다. “역사 소설 쓰려다 거절당했다”, “의학 정보 물었는데 막혔다” 같은 사례가 끊이지 않습니다. 실제로 일부 연구에서는 AI가 악의적 의도 없는 질문도 35~40%의 비율로 과도하게 차단한다는 분석도 있었습니다.
반대로 검열을 완전히 없애면 AI가 해킹·사기·혐오 표현 작성 도구로 쉽게 악용된다는 것도 사실입니다. AI 회사들이 “너무 막는다”와 “너무 풀어준다” 사이에서 균형점을 찾는 작업은 기술적이면서도 철학적인 문제입니다. 커뮤니티의 테스트 문화는 아이러니하게도 이 균형을 찾는 데 중요한 피드백 역할을 하고 있습니다.
Tags
ChatGPT 거절
Claude 필터링
AI 안전성
GPT 우회
AI 한계
