현재 AI 기술의 한계: 대규모 언어 모델(LLM)은 성능 향상 대비 훈련 비용이 증가하며, 대규모 확산 모델(Diffusion Model)이 새로운 대안으로 떠오르고 있지만, 이들 모두 시간, 공간, 현실 세계의 결과에 대한 내재적 개념이 부족하여 예측하기 어려운 작업에 취약합니다. 📉
세계 모델의 필요성: AI가 행동의 결과를 예측하고 목표 달성에 도움이 되는 행동에 집중하려면, 현실 세계를 내부적으로 표현하는 '세계 모델'이 필수적입니다. 토요타의 행동 모델 및 얀 르쿤의 연구가 이 방향으로 진행 중입니다. 🌍
연속 학습의 난제: 현재 AI 모델은 새로운 지식을 학습할 때 기존 지식을 잃어버리는 '가소성 손실' 문제를 겪습니다. 인간처럼 지식을 분리하고 필요한 정보만 유지하는 '연속 학습' 능력은 아직 해결되지 않은 핵심 과제입니다. 🧠
시스템 2 사고의 부재: AI는 다니엘 카너먼의 '시스템 2 사고'와 같은 깊이 있고 노력 집약적인 추론, 메타 사고, 작업 기억 관리, 선택적 주의 집중 능력이 전무합니다. 이는 AGI 달성의 큰 장애물로, 2035년 이후에나 가능할 것으로 예상됩니다. 🤔
자기 목표 설정의 어려움: AI가 인간이 부여한 목표를 넘어 스스로 동기를 부여하고 목표를 설정하는 능력은 생명의 본질과 연결된 더 근본적인 문제입니다. 이를 코드로 구현하는 방법은 아직 미지수이며, 2040년 이후에나 해결될 수 있는 매우 낙관적인 전망입니다. 🎯
AGI 개발의 장기적 관점: 연속 학습, 시스템 2 사고, 자기 목표 설정, 그리고 거버넌스 문제까지 고려할 때, AGI의 가장 빠른 도달 시점은 2050년으로 예측되지만, 이는 '지나친 낙관론'에 기반한 것이며, 실제로는 훨씬 더 오랜 시간이 걸릴 수 있습니다. ⏳
AI 담론의 비판: 많은 AI 관련 인터뷰나 철학적 논의가 기술의 근본적인 이해 없이 이루어져 오해를 증폭시키고 있습니다. AI가 인류의 모든 문제를 해결하거나 곧 세상을 지배할 것이라는 주장은 현실과 동떨어진 '대처 메커니즘'일 뿐이라고 비판합니다. 🗣️