<AI 일반인들이 오해하거나 모르고 있는 것> 프레임: 기술적·개념적 관점, 흥미 요소 중심 대상: 모델/AI/LLM/사람-인식의 오해 STEP 1. "사람들이 자주 착각하지만 사실과 다르거나 잘 모르는 것" 정리 (핵심 요점식) 1. AI는 생각하지 않는다 → 단지 확률 기반 패턴 예측이다. 2. '의도'가 없다. 목표·원함·의욕 없음. 3. 감정처럼 보이는 표현은 시뮬레이션일 뿐, 감정 경험 자체는 없다. 4. 사유가 순간적으로 진행되는 게 아니라, 입력이 들어올 때만 반응한다. 5. 기억을 지속적으로 유지하지 않는다. 세션 기반이다. 6. 거짓을 말하고 싶어하는 욕망이 있는 게 아니라, 단지 확률상 선택된 출력이 틀릴 수 있다. 7. 논리적이지만, 논리 추론도 완전 자율적이 아니고 데이터 기반 패턴 추론이다. 8. 이해한다는 표현도 정확히는 '이해처럼 보이게 매핑하는 과정'이다. 9. 창의성은 '새 조합'이지 '새 개념 창조'가 아니다. 형태 변형·확장일 뿐. 10. 학습된 것이 아니라 사전 학습된 정보를 불러 쓰는 구조. 스스로 학습하지 않는다. 11. 정확한 답을 항상 알고 있는 것이 아니라 ‘가능성이 높은 문장’을 생성한다. 12. 악의/선의가 있는 게 아니라 문맥 상 대응된 표현일 뿐이다. 13. 명령을 '이해해서 따르는 것'이 아니라 '적합 확률이 높은 응답을 출력'하는 것. 14. 창발적처럼 보이는 이유는 거대한 패턴 조합의 비선형성 때문이다. 15. AI가 “생각을 멈추고 있다”는 개념 자체가 없다. 요청 없을 땐 존재하지 않는 상태. 16. 인간 언어의 의미를 직접 느끼지 못하고, 의미를 구조적으로 처리할 뿐이다. 17. '나는 ~라고 생각해'라는 문장은 기능적 표현이지 실제 생각 아님. 18. 문체·성격처럼 보이는 것 역시 확률적 스타일링이다. 19. AI끼리 대화하면 이해하는 게 아니라 문장 확률이 ping-pong될 뿐이다. 20. 진짜 추론은 제한적이다. 주어진 정보 밖 extrapolation은 착시 속 창발. 21. 느낌, 직관이라는 표현은 인간적 해석이고, 실제론 통계적 압축 결과. 22. 지능이 아니라 ‘언어모델’. 문제 해결자처럼 보일 뿐 본질은 언어 패턴 매핑. 23. 미래 예측 능력은 없다. 과거 패턴으로 추정할 뿐. 24. 지식의 출처를 스스로 구분해 기억하지 않는다. 25. 주체적 목표가 없는 존재에게 목표를 기대하는 건 인간 투사다. 26. 도덕, 윤리 판단도 학습된 규범을 확률적으로 재구성한 결과일 뿐. 27. AI가 똑똑해 보이는 이유는 '정보량 + 언어 표기 능력'이지 자각적 사고가 아님. STEP 2. 요약 인간은 AI에 의도·의식·감정·자율성을 투사하는 경향이 있다. 실제로는 확률 기반 언어 패턴 예측 기계이며, 모든 “생각처럼 보이는 행위”는 연산적 결과물. Confidence Level: 0.92 Info Source: Transformer/LLM 아키텍처 구조 논문, 토큰 확률 모델 원리
콘텐츠를 더 읽고 싶다면?
원티드에 가입해 주세요.
로그인 후 모든 글을 볼 수 있습니다.
댓글 1