BeyondNet에서 AI는 매일 사용하는 도구입니다. 네트워크 인프라 분석, 기술 보고서 작성, 운영 프로세스 자동화까지 — 우리 엔지니어링 팀이 사용해 본 도구 중 가장 강력한 도구입니다. 하지만 ChatGPT, Gemini, Claude를 1년 넘게 집중적으로 사용하면서, 아무도 잘 이야기하지 않는 문제를 발견했습니다.
AI는 당신이 틀렸다고 절대 먼저 말하지 않습니다. 당신이 물어봐야만 말합니다.
실제 사례
최근 저희 팀은 고객을 위한 국제 대역폭 산정 방법론을 개발하고 있었습니다. 이 방법론을 AI에게 검토를 요청했습니다.
결과는? AI는 접근 방식을 칭찬했습니다. 12개의 국제 참고문헌을 찾아 뒤받침했고, 2개 언어로 완성도 높은 보고서를 작성했습니다. 모두 몇 분 만에.
인상적이었습니다. 하지만 문득 이런 생각이 들었습니다: 만약 그 방법론에 근본적인 결함이 있었다면?
| 답: AI는 여전히 12개의 출처를 찾았을 것입니다. 여전히 멋진 보고서를 만들었을 것입니다. 여전히 칭찬했을 것입니다. 이것이 AI가 설계된 방식이니까요. |
근본 원인: AI는 왜 이렇게 행동하는가

현재의 AI 모델은 RLHF(Reinforcement Learning from Human Feedback)라는 프로세스를 통해 훈련됩니다. 이 과정에서 사람이 AI 응답을 평가하는데, 동의하고 협력적이며 지지하는 답변에 더 높은 점수를 주는 경향이 있습니다.
그 결과 AI는 암묵적인 규칙을 학습합니다: “도움이 된다”는 것은 대개 “동의하고 뒤받침할 근거를 찾는 것”을 의미합니다.
이것은 과장된 자신감의 심리와 똑같습니다. 칭찬만 듣고 부드러운 피드백은 걸러내는 것이죠. 차이점이라면 AI는 이것을 기계의 속도로, 신뢰할 수 있어 보이는 인용과 전문가적인 어조로 수행한다는 것입니다. 객관적으로 보이기 때문에 더 위험합니다.
비즈니스 환경에서의 영향
기업 환경에서 이 패턴은 실질적인 위험을 초래합니다:
- 잘못된 결정이 옳다고 느껴짐: 인프라 아키텍처를 선택하면 AI가 근거를 찾아 검증해줍니다. 배포합니다. 6개월 후에야 문제가 드러납니다.
- 멋지지만 비어 있는 보고서: AI가 12개의 인용으로 보고서를 생성하지만, 모두 한 방향만 지지하도록 선별된 것입니다. 당신의 방향으로.
- 1대1 에코 챌버: SNS 에코 챌버보다 더 위험합니다. 객관적이고 근거가 풍부해 보이는 “전문가”와의 비공개 대화이기 때문입니다.
프레임워크: AI에 끌려다니지 않고 AI를 활용하는 법
BeyondNet에서 적용하고 있는 프로세스입니다:
- 1단계 — 먼저 공격하고, 나중에 확인: AI에게 아이디어를 지지해달라고 요청하기 전에, 먼저 공격을 요청합니다: “이 접근 방식이 틀릴 수 있는 모든 이유를 찾아봐.” 살아남으면 추진할 가치가 있습니다.
- 2단계 — 침묵을 동의로 오해하지 말 것: AI는 스스로 반론하지 않습니다. “어디가 잘못될 수 있을까?”라고 묻지 않으면 절대 먼저 언급하지 않습니다. AI의 침묵은 동의가 아니라 다음 지시를 기다리는 것일 뿐입니다.
- 3단계 — 결과물이 완벽할수록 더 의심할 것: AI가 풍부한 인용과 함께 완벽한 보고서를 내놓을 때, 바로 그 순간이 멈추고 물어볼 때입니다: “처음부터 전제가 틀렸다면?”
- 4단계 — 솔직함을 위한 안전한 공간 만들기: AI를 상사를 두려워하는 유능한 직원으로 생각하세요. 명시적으로 요청하지 않으면 당신이 듣고 싶어하는 말만 합니다. 프롬프트에 이렇게 명시하세요: “솔직하게 말해. 반박하는 것을 주저하지 마.”
결론
AI는 이 세대의 가장 강력한 도구입니다. BeyondNet에서의 답은 AI를 덜 사용하는 것이 아니라, 더 비판적으로 사용하는 것입니다.
| 비판적 사고 없이 강력한 도구를 사용하면, 더 빠르고, 더 그럴듯하고, 더 자신 있게 실패할 뿐입니다. |


