과거에 마이크로소프트에서 UX 이반젤리스트로 근무를 했었는데, 그 회사는 10년전부터 공식적으로 GUI 다음은 NUI(Natural User Interface)라고 미래 비전에 대해서 이야기를 했었다. GUI는 마우스와 키보드를 주요 입력장치로 사용하는 인터페이스라고 할 수 있는데, NUI는 손가락이나 음성 등 사람이 가지고 있는 고유의 소통 방법에 기반한 인터페이스를 말한다. 당시에는 터치 스크린이 스마트폰에서 PC와 태블릿 등 멀티 스크린으로 확장하던 시기 였기 때문에 터치 인터페이스도 NUI의 일종이라고 할 수 있다. 요즘은 비전 프로처럼 아이 트래킹와 제스처로 마우스를 대신하거나, 뇌에 칩을 심어서 직접 소통하는 연구도 진행되고 있다. 최근 LLM과 멀티모달 AI 기술의 발달에 따라 실제로 NUI의 컨셉을 자연어에 기반해서 완전히 구현할 수 있는 수준에 다달았다는 생각이 든다. 사람과 자연스러운 대화가 가능해서, 자연어로 의도를 정확하게 전달할 수 있고, 음성 인식 기술의 발달로 키보드 없이 소통이 가능하다. 관련 사례로 최근 미드저니가 업데이트한 말로 그림 그리는 사례를 공유해본다.
콘텐츠를 더 읽고 싶다면?
원티드에 가입해 주세요.
로그인 후 모든 글을 볼 수 있습니다.
댓글 1