마이크로소프트는 초지능 AI 경쟁에 뛰어들고 있지만 중요한 주의 사항이 있습니다. 즉, 회사는 기술 능력 극대화보다 인간 통제를 우선시할 계획입니다.
마이크로소프트 AI 부문 CEO인 무스타파 술레이만(Mustafa Suleyman)은 안전과 감독을 보장하면서 인류에게 혜택을 제공하는 AI 구축에 있어서 균형의 중요성을 강조했습니다. Suleyman은 와의 인터뷰에서 “어떤 대가를 치르더라도 가속만 할 수는 없습니다. 그것은 미친 자살 임무일 뿐입니다.”라고 말했습니다.
회사의 새로운 초지능 팀을 이끌게 된 Suleyman은 인간이 이해하고 제어할 수 있는 AI를 개발하는 것이 과제라고 믿습니다. 이는 AI 모델의 현재 상태와 대조됩니다. AI 모델은 강력하지만 예측할 수 없게 작동할 수 있고 이를 생성하는 엔지니어조차 설명하기 어렵습니다.
인본주의적 초지능: 통제와 권력의 균형
AI 역량이 성장함에 따라 전문가들은 이러한 시스템의 예측 불가능성이 증가하면 심각한 위험이 발생할 수 있다고 경고합니다. ChatGPT와 같은 가장 강력한 AI 모델은 인간이 쉽게 해석할 수 없는 언어인 복잡한 알고리즘과 벡터 수학을 사용하여 작동합니다. 이러한 투명성 부족은 중요한 애플리케이션을 위한 신뢰할 수 있고 안전한 AI 시스템이 필요한 기업과 산업에 문제를 야기합니다.
엔터프라이즈 소프트웨어 분야의 선두주자인 Microsoft의 목표는 복잡한 작업을 자동화하면서도 인간의 통제를 유지할 수 있는 AI 시스템을 구축하는 것입니다. Suleyman은 이를 위해서는 절충이 필요하다는 점을 인정합니다.
빠른 읽기
모두 보기
‘그냥 양말인가요?’ 애플의 아이폰 포켓이 인터넷에서 화제가 된 이유
ChatGPT가 여전히 OpenAI의 주머니에 구멍을 뚫고 있기 때문에 Anthropic은 AI 경주에서 승리하여 이익을 얻습니다.
“인류 역사상 그렇게 할 필요가 없었기 때문에 그것은 매우 어려운 절충안입니다.”라고 그는 말했습니다. “우리 종의 이야기는 과학과 기술의 능력을 무한히 열어주고 점점 더 많은 것을 발명해 왔고, 그것을 제한이나 가드레일 없이 내놓는 것이었습니다.”
Microsoft의 신중한 접근 방식은 반드시 초지능을 요구하는 것이 아니라 신뢰할 수 있고 복잡한 작업을 수행할 수 있는 AI를 원하는 고객의 요구 사항에 부합합니다. Suleyman이 말했듯이 기업은 “초인적인 신뢰성을 갖춘 평균적인 지능”을 원합니다.
그러나 그는 현재 AI 모델의 예측 불가능성이 AI 모델을 강력하게 만드는 이유 중 하나라고 지적합니다. AI가 예측 가능하다면 그렇게 능력이 없을 것입니다. Microsoft는 인본주의적 초지능을 강조함으로써 AI 전문가의 안전 문제와 AI를 실제 애플리케이션에 통합하는 데 따른 실질적인 비즈니스 과제를 모두 해결하기를 희망합니다.