글 목록으로
2026년 4월 5일
7분 소요

AI Agent 시대, UI/UX는 어디로 가야 하는가

버튼을 누르면 결과가 나오던 시대가 끝나고 있다. AI가 대신 행동할 때 사용자가 느끼는 경험을 어떻게 설계할 것인가. 기대치 설계, 설명 가능성, 제어권 협상, 우아한 실패까지 — 실무에서 고민해야 할 6가지 포인트.

버튼을 누르면 결과가 나오던 시대가 끝나고 있다. 이제 사용자는 “이거 해줘”라고 말하고, AI가 알아서 판단하고 행동한다. 문제는 그 사이에 있다. AI가 뭘 하고 있는지 모르겠고, 왜 이런 결과가 나왔는지 알 수 없고, 내가 개입할 타이밍도 보이지 않는다.

기존 UI/UX가 “사용자가 시스템을 조작하는 경험”을 설계했다면, AI Agent 시대의 UI/UX는 “시스템이 대신 행동할 때 사용자가 느끼는 경험”을 설계해야 한다. 근본적으로 다른 게임이다.

구글 PAIR(People + AI Research) 가이드북은 이 문제를 6개 챕터로 정리한다: 사용자 니즈 정의, 멘탈 모델, 설명 가능성과 신뢰, 데이터 수집과 평가, 피드백과 제어, 에러와 우아한 실패. 이 구조를 뼈대 삼아, 실제 서비스 사례들과 함께 AI 서비스 설계 시 반드시 고민해야 할 지점들을 정리해봤다.


1. “뭘 할 수 있는가”보다 “뭘 해결해주는가”를 먼저 정의하라

기술팀이 가장 빠지기 쉬운 함정이 있다. “우리 모델이 이것도 할 수 있으니까 넣자.” 기능 중심의 사고다. 하지만 사용자는 AI의 능력에 감탄하러 온 게 아니다. 자기 문제를 해결하러 왔다.

Grammarly가 좋은 예다. 단순 맞춤법 교정기에서 출발했지만, AI를 도입하면서 성공의 정의 자체를 바꿨다. “오타를 몇 개 잡았는가”가 아니라 **Effective Communication Score(ECS)**라는 새로운 지표를 만들었다. 정확성, 명확성, 포용성, 브랜드 일관성을 종합 측정하는 업계 최초의 커뮤니케이션 효과 지표다. “사용자가 자기 메시지에 얼마나 만족하는가”로 성공을 재정의한 것이다.

2025년에는 한 발 더 나아가 AI Agent를 출시했다. 독창성 검사, 독자 반응 예측, 신뢰할 수 있는 출처 추천까지 — 글쓰기의 전체 맥락을 지원하는 방향으로 진화하고 있다.

적용 포인트:

  • 우리 서비스에서 AI가 해결하는 “진짜 문제”가 뭔지 한 문장으로 말할 수 있는가?
  • 성공 지표가 모델 정확도인가, 사용자의 목표 달성률인가?
  • AI 기능을 빼도 서비스가 성립하는가? 성립한다면 AI는 아직 핵심이 아니다.

2. 기대치 설계가 기능 설계보다 먼저다

AI 서비스의 첫인상은 기대치를 결정한다. 사용자가 AI를 “만능 해결사”로 기대하면 작은 실수에도 실망하고, “보조 도구”로 인식하면 같은 실수도 수용한다. 이건 기술의 문제가 아니라 프레이밍의 문제다.

당근의 AI 글쓰기가 이걸 잘 풀었다. 사진을 올리면 AI가 브랜드, 색상, 크기, 카드 슬롯 수까지 파악해서 상품명, 카테고리, 상태, 상세 설명을 자동으로 생성한다. 심지어 여러 물건을 한꺼번에 촬영하면 각각을 분리해서 개별 리스팅까지 만들어준다. 핵심은 이 모든 결과가 편집 가능한 초안으로 제시된다는 점이다. “AI가 초안을 써줄 테니, 당신이 마무리하세요”라는 멘탈 모델이 명확하다.

반면, Apple Intelligence의 알림 요약 기능은 기대치 설계 실패의 교훈을 보여준다. 잠금 화면에서 여러 알림을 AI가 한 줄로 요약해주는 기능인데, 뉴스 알림을 잘못 요약해서 사실과 다른 정보를 보여주는 사고가 발생했다. Apple은 결국 뉴스/엔터테인먼트 앱의 알림 요약을 일시 중단하고, AI가 생성한 요약 텍스트를 이탤릭체로 구분 표시하는 방식으로 수정했다. AI가 만든 콘텐츠는 반드시 사람이 만든 것과 시각적으로 구분되어야 한다는 것을 보여주는 사례다.

적용 포인트:

  • 온보딩 단계에서 AI의 역할과 한계를 명시적으로 안내하고 있는가?
  • AI가 생성한 콘텐츠와 원본 콘텐츠가 시각적으로 구분되는가?
  • AI가 작업 중일 때 “지금 뭘 하고 있는지”를 사용자가 알 수 있는가?
  • “AI는 실수할 수 있습니다”는 면책 조항이 아니라 신뢰 설계의 시작점이다.

3. 블랙박스를 열어라 — 설명 가능성이 곧 신뢰다

같은 추천이라도 “90% 일치”라고 말하는 것과 “당신이 좋아한 한국 드라마와 비슷한 긴장감 있는 작품”이라고 말하는 건 완전히 다른 경험이다.

Netflix가 이 방향으로 움직이고 있다. 매칭 점수 기반 추천에서 정성적 태그 기반으로 전환을 준비 중이다. 30명의 전담 인력이 3,000개 이상의 태그를 관리하며, “slick”, “gritty”, “romantic”, “soapy” 같은 감성 태그를 콘텐츠 카드에 표시하는 방식이다. 숫자 하나보다 형용사 하나가 더 강력한 설명이 될 수 있다.

Perplexity AI는 검색 결과의 설명 가능성을 극단적으로 밀어붙인 사례다. 답변에 인라인 번호 인용을 달고, 출처 패널에 제목, 사이트명, 파비콘까지 표시한다. 사용자가 마우스를 올리면 프리뷰가 뜨고, 클릭하면 원문으로 이동한다. “검색 결과 목록”이 아니라 “근거가 달린 종합 답변”이라는 새로운 패러다임을 만들었다.

사용자는 AI의 결론을 믿고 싶은 게 아니라, 믿어도 되는지 판단할 근거를 원한다. 여기서 중요한 건 설명의 양이 아니라 질이다. 기술적으로 완벽한 설명보다, 사용자의 의사결정을 돕는 한 줄이 더 가치 있다.

적용 포인트:

  • AI의 추천이나 판단에 “왜?”를 붙이고 있는가?
  • 출처, 근거, 확신도 중 어떤 형태의 설명이 우리 서비스에 적합한가?
  • 설명이 너무 많아서 오히려 인지 부하를 주고 있지는 않은가?

4. 핸들을 돌려줘라 — 제어권은 협상 가능해야 한다

AI Agent의 가장 큰 가치는 자동화다. 그런데 가장 큰 불안도 자동화에서 온다. “이걸 왜 이렇게 했지?”, “내가 원한 건 이게 아닌데”, “어디서 멈추게 하지?”

자율주행에 레벨 1~5가 있듯이, AI Agent에도 위임 수준의 스펙트럼이 필요하다.

레벨설명예시
Level 1옵션만 보여줘, 내가 고를게YouTube “관심 없음” 버튼
Level 2골라줘, 근데 실행 전에 확인받아Gemini 대화 만족도 평가
Level 3알아서 해줘, 결과만 알려줘Gmail 스마트 분류
Level 4알아서 해줘, 문제 있을 때만 알려줘Tesla Autopilot

핵심은 사용자가 원할 때 언제든 레벨을 바꿀 수 있어야 한다는 것이다. 업계에서는 이를 “Conversational UI에서 Delegative UI로의 전환”이라고 부르기 시작했다. 수동적으로 프롬프트를 기다리는 대화형 인터페이스에서, AI가 스스로 계획하고 실행하고 반복하는 위임형 인터페이스로의 이동이다. 이 전환에서 가장 중요한 건, 위임의 깊이를 사용자가 직접 조절할 수 있느냐다.

적용 포인트:

  • 사용자가 AI의 자동 행동을 멈추거나 되돌릴 수 있는가?
  • 위임 수준을 사용자가 직접 조절할 수 있는 UI가 있는가?
  • AI가 중요한 결정을 내리기 전에 체크포인트를 거치는가?

5. 에러를 대화로 바꿔라

기존 UI의 에러: “입력값이 올바르지 않습니다.” AI Agent의 에러: “부산행 항공편이 그 날짜에 없네요. 하루 전후로 찾아볼까요?”

이 차이가 사용자 경험의 질을 결정한다.

Siri는 위치 서비스가 꺼져 있을 때 “현재 위치를 알 수 없습니다”가 아니라 “위치 서비스를 켜주시면 식당을 찾아드릴 수 있어요”라고 안내한다. Gemini는 저작권 관련 요청을 거절할 때 단순히 “생성 실패”가 아니라 구체적인 안전 장치 작동 사유를 밝힌다.

**우아한 실패(Graceful Failure)**의 공식은 간단하다: 실패 사유 + 대안 제시 + 다음 행동 유도

적용 포인트:

  • 에러 메시지가 “안 됩니다”로 끝나는가, “대신 이렇게 해보세요”로 이어지는가?
  • AI가 할 수 없는 일을 만났을 때, 사용자가 좌절하는가 우회하는가?
  • 실패의 원인을 사용자가 이해할 수 있는 언어로 전달하고 있는가?

6. 진화를 보여줘라 — 데이터 활용의 투명성

AI 서비스는 시간이 지날수록 나아져야 한다. 그런데 사용자가 그 변화를 체감하지 못하면, “내 데이터를 왜 가져가는 거지?”라는 불신만 남는다.

Tesla의 FSD(Full Self-Driving)는 600만 대 이상의 차량에서 수집한 실주행 데이터로 모델을 학습시킨다. 개선된 모델은 수 주 단위의 OTA 업데이트로 차량에 배포된다. 2025년 11월 업데이트에서는 도심 교차로 판단 개선, 차선 변경 궤적 최적화, 저조도 객체 인식 향상 등이 포함됐다. 사용자는 자기 차가 점점 똑똑해지는 걸 직접 경험한다. 데이터 수집의 이유와 그 결과가 동시에 전달되는 구조다.

반면 대부분의 AI 서비스는 “서비스 개선을 위해 데이터를 수집합니다”라는 한 줄만 남기고, 그 개선이 어떤 형태로 돌아오는지는 알려주지 않는다. 사용자가 데이터 제공의 가치를 체감하지 못하면 불신은 커질 수밖에 없다.

적용 포인트:

  • 사용자 데이터가 어떻게 서비스 개선에 쓰이는지 설명하고 있는가?
  • 모델이 업데이트되었을 때 “뭐가 달라졌는지”를 사용자에게 알리고 있는가?
  • 데이터 제공에 대한 보상이 “더 나은 경험”으로 돌아오고 있는가?

결국, 핵심 질문은 하나다

“우리는 AI의 완벽함을 증명하려 애쓰느라, 사용자가 머물러야 할 빈칸까지 모두 채워버리고 있지 않은가?”

AI Agent 시대의 UI/UX는 기술의 전시장이 아니다. 사용자가 AI라는 강력한 도구를 자기 방식으로 길들여갈 수 있는 여백을 설계하는 일이다.

고민해야 할 것기존 사고방식전환해야 할 사고방식
성공의 정의모델 정확도사용자 목표 달성률
첫인상 설계기능 소개기대치 조율
신뢰 확보성능 과시과정의 투명성
사용자 역할수동적 수용자능동적 조율자
에러 처리오류 메시지대안 협상
데이터 활용수집과 학습투명한 진화 공유

기술은 계속 발전하겠지만, 그 기술 위에 신뢰를 쌓는 일은 여전히 만드는 사람의 몫이다. 거창한 혁신보다, 사용자가 “이 AI는 내 편이구나”라고 느낄 수 있는 작은 장치들부터 하나씩 놓아보자.