여름휴가가 다가오면 우리는 늘 같은 고민을 시작합니다. ‘올해는 어디로 떠나볼까? 무엇을 하면 좋을까?’ 예전에는 여행 계획을 세우기 위해 검색 엔진에 키워드를 입력하고 블로그 후기, 지도, 예약 사이트 등 수많은 창을 띄워가며 정보를 찾아야 했습니다. 이 과정은 여행을 떠나기도 전에 많은 에너지를 소모하곤 했습니다.
이제 사람들은 네이버에 검색어를 입력하고 여러 탭을 넘나드는 대신, ChatGPT에게 직접 질문을 던집니다. ‘사흘 정도 혼자 조용히 다녀올 만한 국내 여행지를 추천해 줘’라고 말하면, 인공지능(Artificial Intelligence, AI)이 가장 적절한 정보를 종합해 단번에 답을 내놓습니다.
또한 유튜브에서 음성으로 여행 후기 브이로그를 검색하거나, 마음에 드는 여행지 사진을 생성형 AI에 업로드해 장소가 어딘지 물어보는 것도 낯설지 않습니다. 이제는 텍스트 입력 없이도 음성이나 이미지를 통해 정보를 얻을 수 있는 환경이 마련되면서, 우리는 더욱 직관적이고 능동적인 방식으로 질문하기 시작했습니다.
검색은 여전히 우리의 일상에 존재하지만, 방식은 근본적으로 변화하고 있습니다. 이번 에브릿띵에서는 '찾는 시대'에서 '묻는 시대'로 전환되고 있는 검색 환경의 변화와, 그 중심에서 기업이 어떻게 움직이고 있는지를 살펴보겠습니다.
최근 Apple은 사파리 브라우저에서 Google 검색량이 두 달 연속 감소했다고 밝혔습니다. 애플은 이러한 변화의 원인으로 생성형 AI의 확산과 이에 따른 정보 검색 방식의 전환을 지목했습니다. 20년간 가까이 유지되어 온 사용자 행태가 흔들리기 시작한 것입니다.
이 발표 직후 Google의 모회사인 알파벳의 시가총액은 하루 만에 약 250조 원 가까이 증발했습니다.1) 이는 시장이 검색 엔진 검색량 감소를 일시적 현상이 아닌, 검색 패러다임의 구조적 변화로 인식하고 있음을 보여줍니다. 검색이라는 행위가 생성형 AI 기반의 상호작용으로 전환되고 있다는 점에서, 검색 환경의 본질적인 변화가 본격화되고 있음을 알 수 있습니다.
검색은 오랫동안 키워드 입력 중심으로 작동해 왔습니다. 2000년대 초반, 검색 엔진 Google과 포털 사이트 네이버는 대표적인 검색 도구였고, 사용자는 키워드를 조합해 필요한 정보를 수동적으로 찾아야 했습니다. 하지만 검색을 통해 접근할 수 있는 정보의 양이 늘어나면서, 오히려 핵심 내용을 빠르게 파악하기 어려워졌습니다.
이러한 한계는 사용자들이 더 직관적으로 정보를 얻고자 하는 이유가 되었습니다. 글로는 파악하기 어려운 장소의 분위기, 음식의 비주얼, 카페의 인테리어 등을 확인하기 위해, 2010년대 중반부터 인스타그램과 페이스북 같은 이미지 기반 소셜미디어가 검색 도구로 활용되기 시작했습니다.
같은 맥락으로 유튜브 역시 주요한 검색 수단으로 부상합니다. 제품 리뷰나 브이로그와 같은 영상을 통해 실제 사용 장면이나 경험을 간접적으로 체험할 수 있게 되면서, 정보 검색이 텍스트를 넘어 영상으로 확장되었습니다.
그러나 영상 콘텐츠는 핵심 정보를 신속하게 파악하는데 한계가 있습니다. 불필요한 서사, 반복되는 설명, 광고성 메시지 등이 혼재되면서 원하는 정보를 빠르게 찾기 어려운 경우가 많습니다. 사람들은 더 많은 정보를 빠르고 정확하게 얻기를 기대하며, 효과적인 정보 탐색 방식에 대한 요구 역시 점점 높아졌습니다.
이 시점에서 기대를 충족한 것이 바로 생성형 AI입니다. 2022년 이후 OpenAI의 ChatGPT를 비롯한 생성형 AI 서비스가 빠르게 확산되면서, 사용자는 문장 단위로 질문을 던지고 자연어 기반의 답변을 제공받을 수 있게 되었습니다. 예컨대, ‘사흘 동안 혼자 조용히 다녀올 수 있는 국내 여행지를 추천해 줘’처럼 맥락을 담은 요청은 이제 익숙한 방식이 되었습니다.
다만 생성형 AI는 실제와 다른 정보를 그럴듯하게 생성해내는 할루시네이션(Hallucination) 현상이 나타날 수 있기 때문에, 정보를 해석하고 최종적으로 판단하는 책임은 여전히 사용자에게 있다는 점을 기억할 필요가 있습니다.
최근에는 AI 에이전트의 등장으로 검색하는 과정 없이도 사용자의 상황을 인식하고 필요한 정보를 선제적으로 제안하거나 특정 작업을 자동으로 수행하는 수준까지 기술이 발전하고 있습니다. 예를 들어, 사용자의 일정이나 이메일 내용을 기반으로 항공편 정보를 자동으로 검색하고 예약 페이지를 안내하는 방식처럼, 일상 속에서 필요한 정보가 자연스럽게 제공되는 사례가 늘어나고 있습니다. 이러한 변화 속에서 검색은 AI가 스스로 맥락을 이해하고 요약된 응답을 전달하는 구조로 재편되고 있습니다.
검색의 구조가 AI 기반의 검색 방식으로 진화함에 따라, 주요 빅테크 기업들도 이에 발맞춰 새로운 검색 패러다임을 제시하고 있습니다. 실제로 2025년 상반기 Google, Microsoft, 메타, OpenAI, NVDIA 등 주요 빅테크 기업에서 진행한 컨퍼런스에서는 검색이라는 개념을 새롭게 정의하려는 흐름이 나타났습니다. 공통적으로 사용자의 직접적인 입력 없이도 AI가 맥락을 이해하고 필요한 정보를 선제적으로 제공하거나, 텍스트, 이미지, 음성, 비디오 등 멀티모달 데이터를 통해 더 빠르고 직관적인 검색 경험을 구현하는 데 주목하고 있습니다. 컨퍼런스에서 공개된 빅테크 기업들의 움직임을 살펴보겠습니다.
① Google I/O 2025: 답을 요약해 주는 검색
Google은 사파리 브라우저에서의 검색량 감소 등 사용자 행태 변화가 뚜렷해짐에 따라, 기존 검색 방식의 한계를 인지하고 AI를 다양한 입력 수단에 적용하는 멀티모달 검색 전략을 강화하고 있습니다. I/O 2025에서 공개된 AI Overview와 AI Mode는 이러한 전략적 방향성을 구체화한 사례입니다.
‘AI Overview’는 복잡한 질문을 입력하면, AI가 관련 문서들을 먼저 검토하여 핵심 내용을 요약한 결과를 검색 결과 페이지에 즉시 제공합니다. 예를 들어, ‘미국 반려동물 인구 통계’를 검색하면 사용자가 여러 웹사이트를 일일이 클릭할 필요 없이, AI가 그 과정을 대신해 한눈에 요약된 정보를 제공합니다. ‘AI Mode’는 여기서 한 단계 나아가 후속 질문을 통해 검색 내용을 심화할 수 있게 해줍니다. 반려동물 인구 통계를 검색한 후 ‘작년과 비교했을 때 어떻게 달라졌는지 알려줘’와 같이 후속 질문을 자연스럽게 이어갈 수 있습니다.
특히 이번 행사에서는 ‘Search Live’ 기능도 함께 공개되었습니다. 이 기능은 카메라에 비춘 대상을 AI가 실시간으로 인식하고, 사용자가 음성으로 질문하면 그 장면에 대한 요약된 정보를 즉시 제공하는 기술입니다. 예를 들어, 길을 걷다 우연히 본 식물을 카메라에 비추고 “이 식물 이름이 뭐야?”라고 질문하면, AI가 실시간으로 장면을 분석해 정보를 제공합니다.
이처럼 멀티모달 검색은, 검색이 단순한 키워드 입력에서 벗어나 현실 세계와 실시간으로 연결되는 탐색 방식으로 진화하고 있음을 보여줍니다.
② Microsoft Build 2025: 검색까지 대신하는 AI Agent
Microsoft는 검색을 포함한 웹 탐색과 작업 수행을 AI가 전담하는 에이전트 중심 웹이라는 새로운 인터넷 생태계를 제시하고 있습니다. Build 2025에서 마이크로소프트는 개인, 조직, 팀은 물론 전체 비즈니스 전반에 작동하는 인터넷 환경을 Open Agentic Web으로 정의했습니다. Open Agentic Web은 기존의 정보 중심 웹을 넘어 AI 에이전트가 사용자를 대신해 웹을 탐색하고, 실제로 작업을 수행하는 능동적인 환경을 의미합니다.
이러한 Open Agentic Web을 실현하기 위한 오픈소스 표준인 NL Web(Natural Language Web)도 함께 발표했습니다. NL Web은 웹사이트가 자연어로 AI와 상호작용할 수 있도록 지원하는 새로운 기술 표준으로, 이를 통해 AI 에이전트가 각 사이트와 직접 대화하며 정보를 주고받을 수 있습니다.
NL Web의 가장 큰 강점은 몇 줄의 코드만으로도 웹사이트에 대화형 인터페이스를 손쉽게 구현할 수 있다는 점입니다. 예를 들어, 특정 여행지에 어울리는 옷차림을 추천하거나, 보유한 식재료로 만들 수 있는 요리를 안내하는 챗봇처럼 소매업체도 간단하게 챗봇을 개발하고 적용할 수 있습니다. 이러한 변화는 검색 방식이 사용자 입력 중심에서 AI 주도형으로 빠르게 전환되는 흐름을 가속화할 것으로 보입니다.
③ 메타 LlamaCon 2025: 검색창 없는 검색 경험
메타는 ‘검색창 없는 검색’이라는 방향성을 바탕으로, AI가 사용자의 맥락을 스스로 이해하고 필요한 정보를 선제적으로 제안하는 구조를 제시하고 있습니다. LlamaCon 2025에서 Llama 4 기반의 음성 대화 중심 맞춤형 AI를 독립 앱 형태로 구현한 사례를 소개했으며, 이는 사용자의 상황과 의도를 보다 깊이 이해해 더욱 유용한 답변을 제공하도록 설계되었습니다.
메타 AI는 Llama 4를 기반으로 사용자의 반응, 프로필, 상호작용 이력 등의 정보를 기억하고 학습하여 관심 있는 인물이나 장소에 대한 정보를 자연스럽게 제안할 수 있습니다.
검색어를 직접 입력하지 않아도 원하는 정보에 도달할 수 있는 이러한 경험은, 생성형 AI가 정보 검색의 출발점으로 자리잡고 있음을 보여주는 대표적 사례로, 기존 검색 방식의 근본적인 전환 가능성을 시사합니다.
④ OpenAI 2025: GPT의 웹 브라우징 기능 고도화
OpenAI는 AI가 직접 웹상의 정보를 읽고 해석해 응답을 구성하는 방식으로 검색을 정의하고 있습니다. 이번 발표에서는 포털 내 최신 정보를 검색한 뒤 이를 요약하고 문맥에 맞게 해석해 응답에 반영하는 과정이 시연되었습니다. 단순한 텍스트 수집이 아닌 정보 선별과 재구성 능력이 강화된 점이 핵심입니다.
OpenAI의 접근 방식은 정보를 단순히 연결하는 수준을 넘어, 내용을 이해하고 요약해 전달하는 능동형 검색 구조로 진화하고 있습니다. AI가 검색 결과를 해석하고 재가공하는 역할까지 수행하며, 기존 검색 도구의 개념을 확장하고 있음을 보여주는 사례로 평가됩니다.
⑤ NVIDIA: 멀티모달 검색의 기술 토대
NVIDIA는 검색 인터페이스보다는 기술 인프라에 집중하며, 멀티모달 데이터 처리 속도와 정확도를 근본적으로 향상시키는 데 주력하고 있습니다. GTC 2025에서 다양한 형태의 정보를 통합적으로 처리할 수 있는 멀티모달 AI 기술을 공개하며, 검색 기술의 기반을 확장했습니다. 특히 영상과 음성 데이터를 실시간으로 결합해 분석하고 요약할 수 있는 VSS(Video Search and Summarization) 기술이 많은 주목을 받았습니다.2)
NVDIA에 따르면 VSS 기술은 사용자가 직접 영상을 시청하는 것보다 최대 100배 빠르게 요약할 수 있다고 밝혔습니다. 예를 들어, 1시간 분량의 영상을 1분 이내의 텍스트로 요약하는 것이 가능합니다.
이러한 영상 분석 기능은 앞으로 검색 분야에서도 폭넓게 활용될 것으로 기대됩니다. 웹 정보를 넘어 영상 정보를 신속하게 요약하고 텍스트로 변환하여 사용자에게 전달할 수 있다면 더욱 방대한 정보를 신속하게 정리하고 제공할 수 있을 것입니다.
기업명을 두 글자 이상 입력해주세요.
소식을 받아 보시려면 마케팅 정보 활용과 마케팅 정보 수신에 모두 동의해 주셔야 합니다.
제출이 완료되었습니다.
제출이 완료되었습니다.
확인 버튼을 누르시면 자사 홈페이지 홈화면으로 이동됩니다.
요청하신 자료가 이메일로 발송되었습니다.
구독 설정이 저장되었습니다.
잘못된 접근입니다. 정상적인 경로를 통해 다시 시도해 주세요.
검색 중 오류가 발생했습니다. 다시 시도해주세요.
제출에 실패하였습니다.
다시 시도해주세요.
사업자등록번호는 10자리를 입력해주세요.