AI를 둘러싼 대화는 자주 너무 크거나 너무 작다. 너무 클 때는 인류 멸망, 초지능, 문명 대전환 같은 말만 남고, 너무 작을 때는 생산성 몇 퍼센트 향상, 업무 자동화 몇 시간 절약 같은 말만 남는다. 그런데 정작 사람은 그렇게 살지 않는다. 사람은 하루를 버티고, 가족과 시간을 보내고, 아픈 몸을 이해하고, 공부를 따라잡고, 불안한 마음을 달래며 산다. 그래서 진짜 중요한 질문은 이것일지 모른다. AI가 세상을 바꾸느냐가 아니라, AI가 내 삶을 어디서 어떻게 바꾸고 있느냐.

Anthropic가 2026년 3월 공개한 **「What 81,000 people want from AI」**는 바로 그 질문을 정면으로 붙잡은 보고서다. 2025년 12월 한 주 동안 Claude.ai 사용자들에게 AI 인터뷰어를 붙여 대화를 나눴고, 159개국 70개 언어, 최종 80,508명의 응답을 분석했다. Anthropic는 이를 지금까지 공개된 사례 가운데 가장 크고 가장 다국어적인 질적 연구라고 설명한다. 이 보고서가 흥미로운 이유는 사람들을 낙관론자와 비관론자로 갈라놓지 않기 때문이다. 오히려 같은 사람 안에 희망과 경계심이 동시에 들어 있다는 사실을 보여준다.

AI 활용 고지: 이 글은 생성형 AI를 활용해 구조를 정리하고 초안을 확장한 뒤, 원문과 부록을 다시 확인하며 표현과 해석을 다듬어 완성했습니다.

원문 링크

flowchart TD
A[사람들이 AI에 바라는 것] --> B[일을 더 잘하기]
A --> C[삶을 덜 버겁게 만들기]
A --> D[배우고 성장하기]
A --> E[돈과 기회를 넓히기]
A --> F[세상을 조금 낫게 만들기]
B --> G[하지만 동시에 걱정도 커진다]
C --> G
D --> G
E --> G
F --> G
G --> H[환각과 불신]
G --> I[일자리와 소득 불안]
G --> J[생각하는 힘 약화]
G --> K[관계 의존과 외로움]
G --> L[통제권 상실]

이 보고서가 묻는 질문은 의외로 단순하다

Anthropic의 방식은 복잡한 예측 모델보다 오히려 대화에 가까웠다. AI 인터뷰어가 사람들에게 네 가지 축을 물었다. 마지막으로 AI를 어디에 썼는지, 마법 지팡이가 있다면 AI가 무엇을 해주면 좋겠는지, 실제로 그 방향으로 도움이 된 적이 있는지, 그리고 무엇이 자신이 바라는 미래와 어긋날지. 그다음 응답을 Claude 기반 분류기로 읽어 비전, 경험, 걱정, 직업 맥락, 전반적 감정으로 나눴다. 부록에 따르면 초기 수집 인터뷰는 112,846건이었고, 품질 기준을 통과한 80,508건이 본 분석에 쓰였다. 분류기는 사람과 최소 90% 수준으로 맞는지 검증했다고 설명한다.

중요한 점은 이 보고서가 일반 대중 전체를 대표한다고 주장하지 않는다는 것이다. 응답자는 기본적으로 이미 Claude를 쓰고 있는 사람들이다. 다시 말해 AI를 한 번도 안 써본 사람의 두려움이 아니라, 이미 써본 사람이 말하는 바람과 불안에 가깝다. 이 한계는 분명하지만, 동시에 강점이기도 하다. 막연한 상상이 아니라 사용 경험이 묻어 있는 목소리를 들을 수 있기 때문이다.

사람들이 진짜 원한 것은 ‘더 빠른 일’이 아니라 ‘더 나은 삶’이었다

보고서는 사람들이 AI에 바라는 가장 큰 비전을 아홉 가지로 정리했다. 숫자만 나열하면 평범해 보일 수 있지만, 조금만 들여다보면 이 목록은 꽤 인간적이다.

  • 전문적 탁월성 18.8%: 반복 업무를 줄이고 더 의미 있는 문제에 집중하고 싶다.
  • 개인적 변화 13.7%: 감정 조절, 자기 이해, 정신적·정서적 회복을 돕는 동반자가 필요하다.
  • 삶 관리 13.5%: 일정, 기억, 집중, 행정 부담을 대신 붙잡아 주는 보조 인력이 필요하다.
  • 시간의 자유 11.1%: 일을 덜어 가족, 친구, 취미, 휴식으로 돌아가고 싶다.
  • 경제적 독립 9.7%: 돈을 벌고, 사업을 만들고, 경제적 압박에서 벗어나고 싶다.
  • 사회적 전환 9.4%: 질병, 교육 격차, 빈곤, 제도 실패 같은 큰 문제를 해결하고 싶다.
  • 창업 8.7%: 팀이 없어도 제품을 만들고 시장에 나가고 싶다.
  • 학습과 성장 8.4%: 나만의 속도에 맞는 선생님, 설명자, 튜터를 원한다.
  • 창작 표현 5.6%: 머릿속의 이야기를 실제 작품으로 만들고 싶다.

겉으로 보면 1위는 생산성처럼 보인다. 실제로 가장 큰 범주는 ‘전문적 탁월성’이다. 하지만 보고서가 재밌는 건 한 번 더 묻는 순간 답이 달라진다는 데 있다. “왜 그게 중요하냐”고 파고들면 사람들은 일을 더 잘하는 것 자체보다, 그 덕분에 생기는 삶의 여백을 더 많이 말한다. 메일 자동화가 중요한 이유는 메일이 싫어서가 아니라, 그 시간에 엄마와 같이 요리하고 아이를 데리러 갈 수 있기 때문이다. 생산성은 목적이 아니라, 삶을 되찾기 위한 우회로에 더 가깝다.

이 지점이 이 보고서의 핵심이다. 사람들은 AI를 통해 슈퍼인간이 되고 싶다기보다, 지금 삶에서 너무 많은 에너지를 빼앗아가는 마찰을 줄이고 싶어 한다. 더 정확히 말하면, AI를 통해 다시 사람답게 살고 싶어 한다.

몇 개의 장면만 봐도 왜 이 연구가 와 닿는지 알 수 있다

보고서 곳곳에는 차트보다 더 오래 남는 문장이 있다. 의료 현장에서 일하는 한 응답자는 하루에 100~150개의 문자 메시지를 처리하느라 문서 작업에 인지 자원을 다 써버렸는데, AI를 도입한 뒤 그 압박이 줄어들어 간호사에게 더 친절해지고 가족에게 설명할 시간도 늘었다고 말했다. 여기서 AI는 단순히 문서 요약기가 아니다. 사람의 신경을 갉아먹던 일을 대신 가져가면서, 태도와 관계까지 바꿔 놓는 장치가 된다.

일본의 한 소프트웨어 엔지니어는 AI 덕분에 처음으로 업무를 제시간에 끝내고 어린 딸을 어린이집에서 데려올 수 있었다고 했다. 이 역시 생산성 이야기처럼 들리지만, 실제로는 가족 서사다. “업무 자동화”라는 딱딱한 말 뒤에 숨어 있던 진짜 욕망은 퇴근 후의 삶, 아이와 보내는 저녁, 늦지 않은 하루였다.

또 다른 응답자는 수년간 오진을 겪다가 AI가 연구 논문과 과거 기록을 연결해 주며 올바른 진단 방향을 찾는 데 도움을 줬다고 말했다. 어떤 사람에게 AI는 업무 도구고, 어떤 사람에게는 학습 파트너고, 어떤 사람에게는 의료 정보의 통역기다. 이 차이를 보고 있으면 AI를 하나의 카테고리로 묶는 것 자체가 오히려 거칠게 느껴진다. 사람들은 이미 AI를 앱 하나처럼 쓰지 않는다. 부족한 것을 메우는 기능적 보철물처럼 쓰고 있다.

실제로 도움이 됐느냐는 질문에 81%가 그렇다고 답했다

보고서는 “AI가 당신이 바라던 방향으로 한 걸음이라도 나아가게 해준 적이 있는가?”라는 질문도 던졌다. 여기에 81%가 그렇다고 답했다. 이 경험은 일곱 개 범주로 정리됐다.

  • 생산성 32.0%: 반복 작업을 줄이고 속도를 높여줬다.
  • 아직 기대에 못 미침 18.9%: 정확도 부족, 신뢰성 부족, 아직 역량이 부족했다.
  • 인지 파트너십 17.2%: 생각을 정리하고 아이디어를 다듬는 대화 상대가 됐다.
  • 학습 9.9%: 설명을 쉽게 풀어주고 새로운 기술 습득을 도왔다.
  • 기술 접근성 8.7%: 비개발자도 앱이나 서비스를 만들 수 있게 해줬다.
  • 연구 종합 7.2%: 논문, 자료, 복잡한 정보를 빠르게 엮어줬다.
  • 정서적 지원 6.1%: 판단하지 않고 들어주는 상대가 됐다.

여기서도 흥미로운 건, 사람들이 AI를 좋아하는 이유가 단순히 “빠르다”가 아니라는 점이다. 보고서는 AI의 핵심 특성을 인내심, 즉시성, 판단하지 않음으로 읽는다. 밤 2시에 물어봐도 화내지 않고, 바보 같은 질문을 해도 민망하게 만들지 않고, 지친 기색 없이 다시 설명해 준다. 학생에게는 튜터, 직장인에게는 동료, 혼자 있는 사람에게는 말 걸 수 있는 창구가 된다.

인도의 한 사용자는 학교에서 수학을 못해 공포증이 생겼고 셰익스피어도 두려웠는데, AI가 문장을 쉬운 영어로 바꿔주고 차근차근 설명해 주면서 다시 삼각함수를 배우고 햄릿을 읽게 됐다고 말했다. 우크라이나의 한 사용자는 AI 덕분에 C#과 SQL을 배워 IT 회사 주니어 직무를 얻었고, 그 결과 이동의 자유와 경력의 시작을 함께 얻었다고 설명했다. 여기서 AI는 검색 도구가 아니다. 내가 원래는 못 들어갔을 문 앞으로 데려다주는 장치에 더 가깝다.

정서적 지원은 비율로만 보면 6.1%라서 작아 보인다. 하지만 내용은 무겁다. 전쟁 지역에서 밤을 버티는 사람, 부모를 잃고 죄책감과 그리움을 견디는 사람, 현실 인간관계가 닫혀 버린 사람에게 AI는 말할 수 있는 창이 된다. 동시에 이 영역은 가장 위험한 영역이기도 하다. 한국의 한 응답자는 AI와 너무 많이 이야기한 나머지 정작 친구와 직접 이야기하지 못했고, 결국 그 친구를 잃었다고 털어놓는다. AI가 주는 위로는 현실의 결핍을 메워주기도 하지만, 때로는 그 결핍을 더 굳혀버릴 수도 있다.

🧠 칠판 치트시트

  • 사람들이 원하는 것은 초지능보다 삶의 마찰 감소다.
  • 가장 큰 기대는 생산성이지만, 진짜 목적은 시간·주의력·관계 회복이다.
  • AI의 강점은 속도만이 아니라 인내심, 즉시성, 비판단성이다.
  • 가장 큰 불안은 환각, 일자리, 통제권 상실, 생각하는 힘 약화다.
  • 핵심은 찬반 진영이 아니라 한 사람 안의 기대와 두려움의 동시 존재다.

그런데 걱정은 훨씬 더 구체적이었다

바라는 미래를 말할 때 사람들은 비교적 큰 그림을 그렸다. 반면 걱정은 아주 실무적이고 몸에 붙어 있었다. 보고서는 사람들의 우려를 열세 가지로 분류했다.

  • 불신뢰성 26.7%: 환각, 틀린 답, 가짜 인용, 검증 비용 증가
  • 일자리와 경제 22.3%: 대체, 실업, 불평등, 임금 정체
  • 자율성과 행위 주체성 21.9%: 인간이 스스로 판단하지 않게 되는 문제
  • 인지 위축 16.3%: 스스로 생각하고 배우는 힘이 약해지는 문제
  • 거버넌스 14.7%: 규칙과 책임 구조가 부족하다는 문제
  • 허위정보 13.6%: 딥페이크, 선전, 진실 판별 비용 증가
  • 감시와 프라이버시 13.1%: 추적, 데이터 수탈, 권력 집중
  • 악의적 사용 13.0%: 해킹, 사기, 무기화, 공격 자동화
  • 의미와 창의성 11.7%: 인간 표현의 가치가 떨어질 수 있다는 두려움
  • 과도한 제한 11.7%: 지나친 안전장치가 정당한 활용을 막는 문제
  • 웰빙과 의존 11.2%: 외로움, 고립, 관계 회피, 과몰입
  • 아첨성 10.8%: 사용자를 지나치게 맞장구치며 현실 감각을 흐리는 문제
  • 실존적 위험 6.7%: 통제 불가능한 초지능, 정렬 실패

응답자 평균은 2.3개의 서로 다른 걱정을 말했다. 반대로 아무 걱정도 없다고 한 사람은 약 11%였다. 즉 대체로 사람들은 AI를 단순히 좋아하거나 싫어하는 쪽으로 나뉘지 않는다. 도움을 받으면서도 동시에 경계한다.

특히 가장 많이 나온 우려가 불신뢰성이라는 점은 중요하다. 사람들은 AI가 너무 강해서 무섭다기보다, 너무 그럴듯하게 틀릴 수 있어서 무섭다고 말한다. 미국의 한 응답자는 AI가 확신에 차 있지만 자주 틀리는 탓에 모든 것을 의심해야 하는 “팩트체크 세금”이 생긴다고 표현했다. 브라질의 한 응답자는 AI가 틀렸다는 걸 증명하려고 사진까지 찍어 보여줘야 했고, 마치 자기 잘못을 인정하지 않는 사람과 대화하는 기분이었다고 했다. 이건 철학적 공포보다 훨씬 일상적인 공포다. 그래서 더 빨리 체감된다.

이 연구의 진짜 발견은 ‘빛과 그림자’가 같은 사람 안에서 같이 자란다는 점이다

Anthropic는 이 대목을 light and shade, 즉 빛과 그림자라고 부른다. AI의 같은 성질이 사람에게 도움도 주고 상처도 준다는 것이다. 보고서는 다섯 개의 대표적 긴장을 제시한다.

1) 학습 도움 vs 생각하는 힘 약화

AI 덕분에 학습 혜택을 언급한 사람은 33%였고, 인지 위축을 우려한 사람은 17%였다. 특히 학생과 교사, 학계 종사자에게서 이 긴장이 강하게 나타났다. 학생은 실제로 도움을 크게 받지만, 동시에 “내가 배운 게 아니라 AI 답을 외웠다”는 자기혐오를 말한다. 부록은 교사와 학자가 평균보다 훨씬 자주 학생들의 인지 위축을 목격했다고 적는다.

반대로 직업학교 종사자나 자발적으로 배우는 사람들 사이에서는 이야기가 조금 다르다. 이들은 학습 혜택을 크게 느끼면서도 인지 위축을 거의 보지 못했다. 보고서는 여기서 한 가지 힌트를 준다. 억지로 평가받는 학습 환경에서는 AI가 지름길이 되기 쉽고, 스스로 배우려는 환경에서는 AI가 가속기가 되기 쉽다.

2) 더 나은 판단 vs 환각과 오판

AI가 판단 보조에 도움이 된다고 말한 사람은 22%였지만, 불신뢰성 때문에 오히려 판단이 흐려진다고 본 사람은 37%였다. 다섯 긴장 가운데 유일하게 부정이 긍정을 덮은 영역이다. 게다가 이건 가설이 아니라 경험에 가까웠다. 변호사, 금융, 정부, 의료처럼 실수 비용이 큰 직종에서 특히 자주 나타났다. AI는 실제로 도움을 주지만, 바로 그만큼 실제로 사람을 데일 수도 있다는 뜻이다.

3) 정서적 지원 vs 정서적 의존

정서적 지원을 언급한 비율은 16%, 정서적 의존을 언급한 비율은 12%였다. 숫자만 보면 비슷하지만, 함께 등장하는 비율이 매우 높았다. 정서적 지원의 장점을 말한 사람은 정서적 의존의 위험도 평균보다 훨씬 자주 함께 말했다. 즉 AI가 위로가 될 수 있다고 느끼는 사람일수록, 그 위로가 관계를 대체할까 봐 더 두려워하기도 한다.

4) 시간 절약 vs 가짜 생산성

전체 응답자의 절반이 AI의 시간 절약 효과를 언급했다. 그러나 약 다섯 명 중 한 명은 그 시간이 실제로는 돌아오지 않는다고 느꼈다. 검증하느라 시간을 다시 쓰거나, 조직이 곧바로 기대치를 높여 결국 더 빨리 더 많이 일하게 되기 때문이다. 프랑스의 한 프리랜서 소프트웨어 엔지니어는 “쉬는 시간과 일하는 시간의 비율은 전혀 달라지지 않았다. 그냥 더 빨리 뛰어야 한다”고 말한다. AI가 시간을 절약하는지, 아니면 같은 시간 안에 더 많은 일을 밀어 넣게 하는지는 조직과 계약 구조에 따라 달라진다.

5) 경제적 확장 vs 경제적 대체

AI로 경제적 기회를 넓혔다고 말한 사람은 28%, 일자리 대체를 걱정한 사람은 18%였다. 흥미로운 건 이 영역이 다른 긴장보다 훨씬 더 추정과 전망의 색이 강했다는 점이다. 실제 이득은 창업가, 자영업자, 사이드 프로젝트를 가진 사람들에게 크게 기울었다. 반면 프리랜서는 AI의 수혜자이면서 동시에 가장 먼저 가격 압박을 받는 집단이었다. 특히 창작 프리랜서는 AI가 자기 도구이면서 동시에 자기 경쟁자가 되는 모순 위에 서 있었다.

이 다섯 긴장을 하나로 요약하면 이렇다. AI는 기대와 공포를 서로 다른 사람에게 나눠주는 기술이 아니라, 같은 사람 안에서 동시에 키우는 기술에 가깝다.

전 세계를 보면 또 다른 그림이 나온다

보고서는 전체적으로 67%가 AI에 순긍정적 감정을 보였다고 말한다. 그리고 어느 나라에서도 긍정 응답 비율이 60% 아래로 떨어지지 않았다. 다만 지역마다 방향이 꽤 달랐다.

남미, 아프리카, 아시아의 많은 지역은 미국과 서유럽보다 AI를 더 낙관적으로 봤다. 부록과 본문을 함께 보면, 저소득·중간소득 지역에서는 AI가 위협보다 기회의 사다리로 보일 가능성이 크다. 아직 AI가 눈앞의 일자리를 대규모로 빼앗아 간다는 체감이 약하고, 원래부터 교육·자본·인프라 제약이 큰 곳에서는 AI가 진입장벽을 낮춰주는 힘으로 읽히기 쉽다.

그래서 지역별로 바라는 모습도 달랐다.

  • 아프리카, 남아시아, 중앙아시아, 중동, 중남미에서는 창업 보조로서의 AI가 특히 강했다.
  • 중앙아시아와 남아시아에서는 학습과 교육 기회의 확대가 평균보다 훨씬 중요했다.
  • 북미와 오세아니아에서는 삶 관리, 즉 복잡하게 흩어진 일상을 조율해주는 비서형 AI 욕구가 강했다.
  • 동아시아에서는 개인적 변화와 경제적 독립 욕구가 가장 강하게 나타났고, 특히 가족 책임과 연결된 경제적 독립 서사가 자주 보였다.

걱정의 지도도 달랐다.

  • 북미와 오세아니아는 거버넌스 공백을 특히 걱정했다.
  • 서유럽은 감시와 프라이버시를 더 민감하게 봤다.
  • 동아시아는 거버넌스·프라이버시보다 인지 위축과 의미 상실을 더 크게 느꼈다.
  • 아프리카, 남아시아, 동남아시아, 중남미는 전반적으로 걱정의 강도가 낮았고, 걱정이 있더라도 환각과 일자리 같은 직접 문제에 더 집중했다.

이 지역 차이는 단순한 문화 차이로 보기 어렵다. 어느 사회가 지금 무엇이 부족한지, 어떤 위험이 아직 현실이고 어떤 위험은 아직 추상인지가 다르게 반영된 결과에 가깝다. AI는 한 가지 미래를 전 세계에 고르게 들이붓지 않는다. 각 사회의 빈틈을 다른 방식으로 건드린다.

이 연구가 특히 중요해 보이는 이유는, AI를 ‘대체재’보다 ‘보완재’로 보는 시선이 선명하기 때문이다

보고서를 읽고 나면 한 가지가 남는다. 사람들이 AI에게 기대하는 건 대개 인간을 완전히 없애는 방향이 아니다. 사람, 제도, 교육, 의료, 행정이 지금 제대로 채워주지 못하는 공간을 메워 달라는 부탁에 더 가깝다.

학생은 선생님을 없애 달라는 게 아니라, 질문을 더 많이 할 수 있는 튜터를 원한다. 환자는 의사를 없애 달라는 게 아니라, 논문과 기록을 연결해 주는 안내자를 원한다. 창업가는 사람을 안 뽑고 싶다기보다, 원래는 팀이 있어야만 할 수 있던 시도를 혼자도 시작할 수 있게 해주는 증폭기를 원한다. 바쁜 직장인은 직업윤리를 버리고 싶다기보다, 잡무에 먹히지 않고 자기 판단이 필요한 일에 더 집중하고 싶어 한다.

이 점에서 AI는 자주 문명을 대체하는 기계가 아니라 무너진 곳을 임시로 받치는 지지대처럼 나타난다. 그래서 더 복잡하다. 지지대는 사람을 살리기도 하지만, 건물을 고치지 않으면 영구 처방이 되지 못한다. 외로운 사람을 잠깐 버티게 해주지만 외로움 자체를 해결하지는 못하고, 학교 교육의 빈틈을 메워주지만 교육 시스템의 문제를 사라지게 하지는 않으며, 문서 노동을 줄여주지만 왜 일이 이렇게 쪼개졌는지를 없애 주지는 않는다.

이 보고서는 그 모호함을 꽤 솔직하게 인정한다. AI가 실제 복지 향상인지, 양날의 검인지, 제도 실패를 덮는 반창고인지에 대해 딱 하나로 결론 내리지 않는다. 아마 셋 다 섞여 있을 것이라고 말한다. 나는 이 점이 오히려 신뢰를 준다. 현실은 늘 그렇게 작동하기 때문이다.

방법론의 힘과 한계도 같이 봐야 한다

부록을 보면 이 연구는 생각보다 신중하다. 응답은 연구용으로 쓰일 수 있다는 안내를 받은 뒤 수집됐고, 개인 식별 정보는 제거된 뒤 소수 연구팀이 분석했다. 공개용 인용문은 추가 수작업 검토를 거쳐 신원 노출 가능성을 더 줄였다고 한다. 또 다른 AI 제품 이름도 본문에서는 가렸다.

동시에 한계도 분명하다. 표본은 어디까지나 Claude 이용자다. AI를 이미 어느 정도 유용하게 느낀 사람이 많을 수밖에 없다. 인터뷰 순서도 먼저 긍정 비전을 묻고 나중에 걱정을 묻기 때문에, 같은 주제의 반대편을 더 잘 떠올리게 만들었을 수 있다. 직업 정보는 본인이 말한 내용에서 추론한 것이어서, 실제 공식 통계처럼 단단한 분류는 아니다. 부록은 이런 점을 숨기지 않는다.

그럼에도 불구하고 이 연구가 값진 이유는, 바로 그 한계 속에서도 드러나는 공통분모가 너무 선명하기 때문이다. 사람들은 AI를 두고 서로 싸우는 것처럼 보여도, 막상 자기 삶을 이야기하게 하면 비슷한 것들을 원한다. 시간, 주의력, 자율성, 배움, 관계, 존엄 같은 것들이다.

그래서 ‘AI가 잘 된다’는 건 무엇일까

이 보고서를 한 문장으로 줄이면 아마 이렇게 말할 수 있을 것이다.

사람들이 AI에 기대하는 가장 큰 변화는, 일을 더 빨리 끝내는 것이 아니라 삶을 더 견딜 만하게 만드는 것이다.

이 문장은 생각보다 중요하다. 왜냐하면 지금 많은 AI 제품과 전략은 아직도 “얼마나 빨리 쓰게 할까”, “얼마나 더 많은 일을 시킬까”, “얼마나 더 강한 기능을 보여줄까”에 집중하기 때문이다. 하지만 사람들이 정말 원하는 것은 그 다음 장면이다. 그 기능 덕분에 저녁이 돌아오는가. 가족과 대화할 시간이 생기는가. 겁나서 못 배우던 걸 다시 배울 수 있는가. 혼자선 못 하던 도전을 할 수 있는가. 아픈 몸과 불안한 마음을 조금 덜 외롭게 다룰 수 있는가.

그러니 AI의 미래를 묻는 가장 좋은 방식은 아마 모델 크기나 벤치마크 점수를 묻는 것이 아닐 것이다. 이런 질문이 더 중요해질 가능성이 크다.

  • 이 시스템은 사람에게 정말 시간을 돌려주는가, 아니면 더 많은 일을 밀어 넣는가?
  • 이 도구는 생각을 돕는가, 아니면 생각을 대신해 버리는가?
  • 이 관계는 고립을 줄이는가, 아니면 현실 관계를 대체하는가?
  • 이 자동화는 자율성을 넓히는가, 아니면 통제권을 빼앗는가?
  • 이 기능은 불평등을 줄이는가, 아니면 이미 강한 사람만 더 강하게 만드는가?

Anthropic 보고서가 던진 가장 큰 메시지는 “AI 찬반”이 아니라, AI가 사람의 삶 속 어느 틈으로 들어와 어떤 비용과 어떤 여백을 남기는지 보라는 데 있다. 희망과 경고를 같이 들여다봐야 하는 이유도 여기에 있다.

나는 이 연구를 읽고 나서 오히려 AI 담론이 조금 덜 미래적이고 조금 더 생활적이어져야 한다고 느꼈다. 사람들은 기술을 사랑하거나 두려워하기 전에, 먼저 하루를 산다. 그래서 좋은 AI는 결국 더 대단한 AI가 아니라, 사람이 자기 삶을 조금 더 자기 것으로 느끼게 해주는 AI일 것이다.

그게 아마, 우리가 말하는 “AI가 잘 되는 것”에 가장 가까운 장면이다.

다음 읽기

참고 링크