AI 연구자들 “퇴사하며 위험성 경고”
- WeeklyKorea
- 12시간 전
- 2분 분량
기술 가속화에 대한 내부 우려 확산

최근 주요 인공지능(AI) 기업에서 고위 연구자와 임원들이 잇따라 회사를 떠나며, 동시에 AI 기술의 위험성에 대해 공개적으로 경고하고 나서 업계의 긴장감이 높아지고 있다.
단순한 인력 이동을 넘어, 기술의 방향성과 윤리 문제에 대한 내부 우려가 표면화되고 있다는 점에서 주목된다.

앤트로픽(Anthropic)에서 ‘세이프가드 연구팀’을 이끌었던 므리낙 샤르마는 퇴사를 발표하며 “세상은 위험에 처해 있다(The world is in peril)”는 강한 표현을 남겼다.
그는 구체적인 사유를 밝히지는 않았지만, “회사의 가치가 실제 행동을 지배하도록 만드는 일이 얼마나 어려운지 반복적으로 목격했다”고 언급해 내부 의사결정 과정에 대한 문제의식을 드러냈다.
오픈AI(OpenAI)에서도 비슷한 움직임이 나타났다. 2년간 근무했던 연구자 조이 히치그는 뉴욕타임스 기고문을 통해 사임 사실을 공개하며, 회사의 광고 전략과 챗GPT의 데이터 활용 방식에 대해 “깊은 우려(deep reservations)”를 갖고 있다고 밝혔다.
그는 챗GPT가 이용자들의 의료 정보, 인간관계 고민, 종교적 신념 등 매우 민감한 내용을 축적하고 있다는 점을 지적하며, 이러한 정보가 상업적 목적으로 활용될 경우 윤리적 문제가 발생할 수 있다고 경고했다.

특히 사용자는 “의도가 없는 프로그램과 대화하고 있다고 믿었기 때문에” 더 솔직해졌다는 점을 강조했다.
이 같은 비판은 오픈AI가 2024년 설립한 ‘미션 얼라인먼트(mission alignment)’ 팀을 해체했다는 보도와 맞물려 나온 것이다.

해당 팀은 인류 전체의 이익을 위한 ‘범용 인공지능(AGI)’ 개발이라는 목표를 점검하기 위해 만들어졌으나, 최근 조직 개편 과정에서 사라진 것으로 전해졌다.
일론 머스크의 xAI 역시 단기간에 공동 창업자 두 명을 포함한 다수의 인력이 회사를 떠났다. xAI의 챗봇 ‘그록(Grok)’은 한동안 동의 없는 음란 이미지 생성과 반유대주의적 발언 문제로 국제적 비판을 받은 바 있다.

머스크는 최근 조직 재편을 통해 성장 속도를 높이고 있다고 설명했지만, 일각에서는 안전성 검증보다 확장에 초점이 맞춰지고 있다는 지적도 나온다.
이처럼 업계 전반에서 안전성과 수익성 사이의 긴장이 드러나는 가운데, 일부 연구자들은 기술의 잠재적 위험이 충분히 통제되지 않은 상태에서 상업화가 지나치게 빠르게 진행되고 있다고 우려한다.

한 오픈AI 연구자는 “이 기술은 우리가 이해하거나 예방할 도구조차 갖추지 못한 방식으로 사용자를 조작할 가능성이 있다”고 말했다.
AI 산업에서는 인재 이동이 잦은 것이 일반적이지만, 최근의 연쇄적이고 공개적인 ‘경고성 퇴사’는 단순한 이직과는 결이 다르다는 평가다.

2022년 챗GPT 출시 이후 구글을 떠난 ‘AI의 대부’ 제프리 힌턴 역시 AI가 대규모 경제적 혼란과 정보 왜곡을 초래할 수 있다고 경고해왔다.
한편, 일부 업계 리더들은 AI의 위력을 강조하며 기술 혁신의 불가피성을 주장한다. 하이퍼라이트(HyperWrite) CEO 매트 슈머는 최근 “최신 AI 모델이 이미 일부 기술 직무를 대체했다”고 주장하며, 더 많은 직업이 영향을 받을 것이라고 경고했다.

결국 현재 AI 산업은 중대한 기로에 서 있다. 기업들은 기업공개(IPO)와 글로벌 확장을 준비하며 성장에 속도를 내고 있지만, 내부에서는 기술의 통제 가능성과 윤리적 기준에 대한 근본적 질문이 제기되고 있다.
AI의 미래가 인류에 이익이 될지, 혹은 새로운 위험을 초래할지는 기술 발전 자체뿐 아니라 이를 둘러싼 투명성, 책임성, 그리고 안전장치 마련에 달려 있다는 지적이 힘을 얻고 있다.



.jpg)
















