Internal Discussion · TSTF 2026.04 · v1.0
Risk & Resilience Briefing

만약 내일,
AI가 사라진다면.

우리는 ChatGPT·Gemini·Claude Code 없이 일하는 법을 잊어가고 있다. 그 의존이 어느 날 갑자기 끊긴다면, 우리는 어디서 가장 먼저 무너질까. 그리고 무엇을 미리 준비할 수 있을까.

대상  TSTF 전체 형식  토론 자료 소요  30~45분
§ 00 — Context

지금 이 논의를 해야 하나

최근 1년간 미국발 AI 정책 환경에는 의미 있는 변화가 있었습니다. AI는 더 이상 단순한 SaaS가 아니라, 미국이 전략 자산으로 다루기 시작한 인프라입니다.

  • 2026년 2월 — 미국 정부가 자국 AI 기업 Anthropic을 연방 정부 사용 금지 조치하고, 한국전쟁기 제정된 Defense Production Act 발동까지 검토
  • 2026년 3월 — 미 상무부가 Nvidia·AMD AI 가속기 전 세계 출하를 사실상 미국 정부가 인허가하는 체계 추진
  • 한국의 위치 — 현재는 Tier 1(무제한) 국가지만, 언제든 등급이 조정될 수 있는 정책 환경
"AI를 더 잘 쓰는 법"만큼 "이 도구가 사라졌을 때 우리는 어떻게 굴러가는가"가 중요한 질문이 되었습니다.
§ 01 — Scenarios

어떤 식으로 AI 도구가 끊길 수 있는가

Scenario A

정치적·외교적 무기화

Hard Cut
Trigger
  • 미·중 갈등 격화로 한국이 Tier 2로 강등
  • 한국 게임 산업의 중국 자본 연계를 이유로 산업 단위 제재
  • 한미 통상 마찰에 대한 보복 카드로 AI 서비스 차단
  • 안보 명목의 "이중용도" 분류로 민간 게임사도 휘말림
Symptoms
한국 IP에서 ChatGPT/Claude/Gemini API 호출 차단, 결제·계정 비활성화, Cursor·Copilot 등 미국 인프라 위 도구 동시 마비
Recovery
협상에 따라 며칠~수개월. 단, 언제든 재발 가능한 상시 리스크가 됨.
Scenario B

기업 정책·약관 변경

Soft Cut
Trigger
  • 행정명령에 의한 특정 국가/산업/목적 서비스 의무화 또는 금지
  • AI 회사 자체 정책으로 게임 콘텐츠 생성 제한 (전투·미성년 캐릭터 등)
  • 가격 정책 급변(OPEX 5~10배), 무료/저가 티어 폐지
Symptoms
어제까지 잘 쓰던 프롬프트가 갑자기 거부됨, API 한도 무통보 축소, LiteLLM 같은 프록시 우회가 약관 위반으로 분류
Recovery
정책 변경은 되돌리기 어려움. 장기간 영향.
Scenario C

기술적 장애·사이버 공격

Outage
Trigger
  • AWS·Azure·Cloudflare 대규모 장애 → 다수 AI 서비스 동시 다운
  • AI 회사 본사 사이버 공격 (랜섬웨어, DDoS, 데이터 유출)
  • 해저 케이블 절단, KT/SK 네트워크 장애
  • 모델 가중치 유출 사고로 인한 긴급 서비스 중단
Symptoms
수 시간~며칠간 모든 AI 도구 무응답. 동시다발적이라 "다른 AI로 갈아타면 됨" 식 우회가 불가
Recovery
보통 24~72시간. 단, 빈도가 늘고 있는 추세.
Scenario D

내부 보안·컴플라이언스

Self-imposed
Trigger
  • 게임 기획서·소스코드가 외부 AI에 학습 데이터로 흘러간 정황 발견
  • 개인정보·미공개 빌드 정보 유출 사고
  • 모회사·퍼블리셔·플랫폼사(Sony, Nintendo 등) 요구로 외부 AI 사용 금지
  • 정보보호 감사 결과 외부 AI 사용 일괄 차단
Symptoms
회사 차원에서 미국 AI SaaS 일괄 차단. VPN 우회도 보안팀에 의해 차단. "쓰던 사람"과 "안 쓰던 사람" 사이 생산성 격차가 즉각 드러남
Recovery
회사 정책에 좌우. 한 번 막히면 풀리기 매우 어려움.
§ 02 — Impact

우리에게 미치는 실제 영향

TSTF가 최근 1년간 Jira·Slack·Notion 위에 쌓아온 자동화 자산 관점에서 본 의존도 진단입니다.

영역 현재 의존도 중단 시 영향 우회 난이도
코딩 작업
Claude Code, Copilot
매우 높음 프로그래머 생산성 30~50% 하락 추정 로컬 모델 부분 대체
기획 문서 작성·리뷰 높음 보고서·회의록·제안서 속도 2~3배 감소 한국어 LLM 활용
Jira·Notion·Slack 자동화 매우 높음 주간보고·이슈 트래킹·리마인더 자동화 일제히 멈춤 높음 수동 복귀
번역·로컬라이즈 글로벌 빌드·외부 커뮤니케이션 지연 낮음 DeepL 등 대체
아트·애니메이션 R&D
KiMoD 등
낮음~중 단기 영향 적음, 장기 로드맵 재검토 필요
AI 기반 QA·플레이테스트 회귀 테스트 일부 수동 전환
★ 핵심 리스크

단순히 "도구가 안 됨" 수준이 아니라, 이미 자동화에 녹아든 워크플로 전체가 멈추는 것입니다.

특히 우리 팀이 최근 1년간 쌓아온 자동화 자산이 일시에 휴면 상태가 됩니다.

§ 03 — Alternatives

우리가 가진 선택지들

01

멀티 벤더 분산

ChatGPT / Claude / Gemini를 동시 운영하고, LiteLLM 같은 프록시로 즉시 스위칭 가능하게 구성

강점

  • 가장 빠르게 도입 가능 (이미 일부 진행 중)
  • 평상시 비용·성능 최적화에도 유리

한계

  • 모두 미국 회사. Scenario A에는 무력함
  • 한 회사가 무너지면 다른 회사도 비슷한 정책 압력을 받을 가능성
02

한국·중국 LLM 활용

미국 정책 영향권 밖의 모델로 일부 워크로드를 분산

한국 모델

Upstage SOLAR, Kakao Kanana, EleutherAI Polyglot-Ko 등 Apache 2.0 기반 한국어 특화 LLM. Naver HyperCLOVA X는 오픈소스는 아니지만 국내 API로 제공.

한국어 우수, 영어·코딩·추론은 글로벌 모델 대비 격차 있음

중국 모델 (오픈웨이트)

Qwen 3.5 / 3.6 (Alibaba, 119~201개 언어 지원, Apache 2.0), DeepSeek V3.2 / V4 (MIT, 코딩·수학 추론 강력), GLM-5.1 (Zhipu, SWE-Bench 1위급).

강점

  • 미국 정책에 영향받지 않음
  • 한국어·중국어 처리 강점

한계

  • 중국 모델은 회사 보안·퍼블리셔 정책상 사용 가능성 별도 검토 필요
  • 한국 모델은 프론티어 모델 대비 성능 격차
  • "미국 막히면 중국"이라는 단순화는 위험 — 미·중 갈등 격화 시 양쪽 다 막힐 수 있음
03

온프레미스·사내 LLM

Llama 4, Qwen 3.6, DeepSeek V4 등 오픈웨이트 모델을 회사 GPU 서버에 직접 배포 (Ollama, vLLM 기반)

현실적 후보

Qwen3-32B: 단일 H100 80GB로 운영 가능, HumanEval 88%

Llama 4 Scout: INT4 양자화 시 단일 H100에서 가동

소형 모델(Gemma 3 4B 등): 개인 PC 가동 가능 → 최후의 보루

강점

  • 완전한 데이터 주권. 모회사·퍼블리셔 보안 요구에 부합
  • 외부 정책 변화 영향 0
  • 장기적으로 비용 예측 가능

한계

  • 초기 인프라 투자 (H100 80GB 서버 1대당 수천만~억 단위)
  • 모델 운영·업데이트 인력 필요
  • 프론티어 모델 대비 6~12개월 후행
  • "있다"와 "쓸만하다" 사이의 갭이 큼
04

AI 없이 일하는 능력 유지

가장 간과되지만 가장 중요한 대안. "AI 없으면 일을 못함"이라는 상태 자체가 리스크

실천 항목

  • 신입·주니어가 AI에만 의존해 기본기를 못 쌓는 패턴 경계
  • 핵심 산출물(기획서, 코드 리뷰, 보고서)을 사람이 처음부터 끝까지 작성하는 훈련 정기적으로 유지
  • AI 산출물에 대한 검증 능력(코드 리딩, 문서 비판적 읽기) 강화
§ 04 — Roadmap

단계별 대비 전략 시안

Phase 01
단기
1~3개월 · 즉시 할 수 있는 것
  1. 현재 의존도 인벤토리 작성 — 어떤 워크플로가 어떤 AI에 의존하는지 가시화
  2. LiteLLM 프록시에 다중 벤더 등록 — Anthropic 외 OpenAI·Google 키도 함께 운영
  3. 핵심 자동화의 "수동 백업 절차" 문서화 — AI 끊겨도 굴러가는 최소 절차
Phase 02
중기
3~12개월 · 구조적 분산
  1. 한국어 LLM POC — Solar, Kanana 등으로 기획·문서 작업 일부 대체 가능성 검증
  2. 로컬 코딩 어시스턴트 POC — Qwen3-32B / DeepSeek-Coder를 사내 GPU에 배포하고 일부 팀원 평가
  3. AI 단식일(AI Fast Day) — 분기에 1~2회, 의도적으로 AI 없이 하루 일해보고 어디가 막히는지 측정
Phase 03
장기
1년+ · 전략적 자립
  1. 사내 표준 모델 정의 — "기본은 외부 API, 민감 작업은 사내 모델, 비상시는 로컬" 다층 구조
  2. AI 거버넌스 정책 수립 — 어떤 데이터를 어떤 모델에, 어떤 산출물은 사람이 검증해야 하는지
  3. 회사·산업 차원의 공동 대응 — 게임산업협회 등을 통한 공동 인프라 구축 가능성
§ 05 — Discussion

함께 답을 찾아갈 것들

회의 진행 시 인식 → 정책 → 인력 → 실행 → 본질 순으로 가시면 자연스럽게 깊어집니다.

인식
  • 우리 팀에서 "AI 없으면 가장 먼저 멈출" 작업 3가지는 무엇인가?
  • 지금 그 의존도가 "건강한 의존"인가, "위험한 의존"인가?
정책
  • 미국 AI가 차단되면 중국 AI를 쓰는 것에 대해 우리 회사·퍼블리셔·플랫폼 입장은?
  • 사내 GPU 인프라 투자에 회사가 얼마까지 쓸 의향이 있을까?
인력
  • 신입에게 "AI 없이 일하는 법"을 어디까지 가르쳐야 하나?
  • AI 의존도가 높은 사람과 낮은 사람의 격차가 벌어지면 평가는 어떻게?
실행
  • "AI 단식일"을 한 번 해본다면, 언제? 어떤 부서가 먼저?
  • 우리 팀이 자체적으로 시작할 수 있는 가장 작은 첫 걸음은?
본질
  • 이 모든 리스크에도 불구하고, 결국 우리는 더 많은 AI 의존을 선택할 수밖에 없는가?
  • "의존을 줄인다"와 "의존을 더 잘 관리한다"는 같은 말인가, 다른 말인가?
§ 06 — Timeline

최근 주요 사건 타임라인

2025.01
미국 Biden 행정부, AI Diffusion Rule 발표 — 한국은 Tier 1 (무제한)
2025.05
AI Diffusion Rule 시행
2025.08
Nvidia·AMD, 중국 매출의 15% 미국 정부 분배 합의
2025.12
Trump 행정부, H200 칩 중국 판매 25% 분배 조건 승인
2026.01
미 의회, AI Overwatch Act / GAIN AI Act 등 강화 법안 논의
2026.02
Trump, Anthropic 연방정부 사용 전면 금지 명령 + Defense Production Act 발동 검토
2026.02
OpenAI, Pentagon과 별도 계약 체결 (Anthropic 빈자리 메움)
2026.03
미 상무부, Nvidia·AMD AI 가속기 전 세계 출하 인허가 체계 추진