Journal of Channel and Retailing
Korea Distribution Association
Research article

AI챗봇에 대한 인지된 개인화가 고객시민행동에 미치는 영향: 인지된 공감과 프라이버시 침해우려의 조절된 매개효과*

원지영1, 김영찬2,*
Jie Young Won1, Young Chan Kim2,*
1아주대학교 국제대학원 강사(annawon@ajou.ac.kr)
2연세대학교 경영대학 교수(youngkim@yonsei.ac.kr)
1Lecturer, Global School of International Studies, Ajou University
2Professor, School of Business Administration, Yonsei University
*Corresponding Author: youngkim@yonsei.ac.kr

© Copyright 2025 Korea Distribution Association. This is an Open-Access article distributed under the terms of the Creative Commons Attribution NonCommercial-ShareAlike License (http://creativecommons.org/licenses/by-nc-sa/4.0) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.

Received: Jan 28, 2025; Revised: Mar 28, 2025; Accepted: Apr 16, 2025

Published Online: Apr 30, 2025

국문초록

AI와 빅데이터 분석기술의 발전은 소비자 행동과 기업 마케팅 활동의 전반에서 혁신적인 변화를 가져왔다. 많은 기업들이 고객데이터와 AI기술을 접목해 고객 맞춤형 마케팅을 제공하고 있으며, 마케팅 활동을 효율화하고 생산성을 향상시키려는 노력을 기울이고 있다. 특히 AI챗봇은 고객접점에서 가장 빠르게 적용되고 있는 AI기술로 고객의 니즈를 파악하고 개인화된 응대를 제공하는 주요한 수단으로 자리 잡았다. 전통적으로 고객응대 종업원의 공감은 고객의 긍정적 반응을 촉진하는 요인으로 널리 인정받아 왔다. 이에 본 연구는 사회적 역할자로서 컴퓨터(CASA) 이론에 기반하여 소프트웨어인 AI챗봇의 경우도 고객이 공감을 인식할 때 바람직한 행동이 촉진될 것으로 예상하고 연구모형을 수립하였다. 먼저, AI기기수용모형의 틀에 맞추어 AI챗봇의 인지된 개인화가 인지된 공감을 매개로 고객시민행동을 향상시키는 매개경로가 존재할 것으로 예상하였다. 한편, AI챗봇이 지나치게 개인화된 상호작용을 하는 것은 오히려 사용자에게 부정적인 영향을 줄 것으로 보았다. 이에 따라 정보경계이론(IBT)을 근거로 인지된 공감의 매개효과가 프라이버시 침해우려에 의해 조절되는 조절된 매개효과가 발생하는 것으로 가설을 수립하였다. 실증분석을 위해서 국내에서 AI챗봇 사용경험이 있는 210명을 대상으로 온라인 설문조사를 실시하였고 PROCESSSS macro 모형을 사용해서 매개효과와 조절된 매개효과를 조사하였다. 분석결과 AI챗봇의 인지된 개인화는 인지된 공감의 매개를 통해서 고객시민행동을 제고하며, 이 매개효과는 프라이버시 침해우려에 의해 조절되는 것으로 나타났다. 유통영역에서 AI챗봇이 빠르게 도입되고 있음에도 불구하고 AI챗봇과 고객 간 감성적 상호작용 효과에 집중한 연구는 드물다. 본 연구는 개인화를 통한 공감의 제고가 고객의 가치 공동창출 행동을 촉진한다는 사실을 실증하였다. 이러한 연구결과는 고객과 AI챗봇 간 감성적 상호작용의 중요성을 환기하고 효과경로에 대한 이해를 심화시켰다는 데 기여점이 있다. 실무적 관점에서도 AI챗봇의 개인화 수준과 프라이버시 침해우려의 관리에 대한 시사점을 제공하였다.

ABSTRACT

Purpose: AI and big data have transformed customer behaviors and marketing strategies, with businesses using customer data for personalized services that improve efficiency and reduce workload. For customers, AI enhances convenience by automating tasks. Post-COVID, AI adoption accelerated, with 42% of businesses using chatbots that leverage natural language processing and machine learning. In banking, 51.4% of representatives acknowledge chatbots’ effectiveness, while retail implementation has increased 31% since 2021, now reaching 73% of global companies. Current research limitations include focus on functional rather than intelligent features, limited empirical research on personalization and psychological responses, insufficient research on empathy’s influence, minimal privacy concern research, and poor understanding of interaction factors. This study examines chatbot personalization’s impact on perceived empathy, how empathy affects customer citizenship behavior, and privacy concerns’ moderating effect. The research draws on CASA theory, AI Job Replacement Theory, AI Device Use Adoption model, and Information Boundary Theory. Based on this theoretical background, the study developed the following hypotheses:

  • [H1] Perceived personalization of AI chatbot services will increase customer citizenship behavior.

  • [H2] Perceived empathy will mediate the effect of perceived personalization of AI chatbot services on customer citizenship behavior.

  • [H3] Privacy concerns will moderate the mediating pathway where perceived personalization of AI chatbot services affects customer citizenship behavior through perceived empathy.

Research design, data and methodology: This study surveyed Korean adults who had used AI chatbots, following Hair et al.’s (2010) guidelines recommending 5–15 responses per observed variable for structural equation modeling. With 14 variables, they targeted 140–210 responses. The online survey ran February 1–15, 2024, through a domestic panel agency, screening for those who had used AI chatbot customer service within the past year. From 234 participants, 24 were excluded for short response times or irrelevant answers, leaving 210 respondents. The sample was 64% male with an average age of 32.1 years, distributed across age groups: 30s (39%), 20s (31%), 40s (23%), and 50s (7%). For chatbot service frequency, 41.1% reported “less than 10 times,” 21.9% “20+ times,” 19.4% “less than 5 times,” 10.6% “less than 15 times,” and 7.0% “less than 20 times.” With 81.6% having used chatbots at least 5 times, the sample confirmed their widespread use. Measurement items used a 5-point scale, with perceived personalization measured by four items, perceived empathy by three items, customer citizenship behavior by four items, and privacy concerns by three items.

Results: Using Hayes’ PROCESS MACRO Model 4, the total effect of perceived personalization on perceived empathy was significant (b=0.671, p<0.001), supporting Hypothesis 1. Bootstrapping analysis (n=1,000) showed a significant indirect effect of perceived empathy (0.273, 95% CI=[0.186, 0.371]) and significant direct effect (95% CI=[0.282, 0.514]), confirming perceived empathy partially mediates the influence of perceived personalization on customer citizenship behavior, supporting Hypothesis 2 (show <Table 1>).

Table 1. Mediation analysis
Path b SE t 95% CI
Low High
Total effect
Perceived personalization of AI chatbot services → Customer citizenship behavior 0.671*** 0.060 11.183 0.553 0.789
Indirect effect
Perceived personalization of AI chatbot services → Perceived empathy → Customer citizenship behavior 0.273*** 0.047 - 0.186 0.371
Direct effect
Perceived personalization of AI chatbot services → Customer citizenship behavior 0.398*** 0.059 6.751 0.282 0.514

p<0.05,

p<0.01,

p<0.001.

Download Excel Table

To verify whether privacy concerns moderate the indirect effect of perceived personalization of AI chatbot services on customer citizenship behavior through perceived empathy, Hayes' PROCESS MACRO Model 7 was used. The analysis showed a statistically significant interaction effect between perceived personalization and privacy concerns on perceived empathy (b=–0.160, p<0.001). This confirms that the influence of perceived personalization on perceived empathy varies depending on the level of privacy concerns (see <Table 2>).

Table 2. Moderated mediation analysis
Dependent variables
Perceived empathy Customer citizenship behavior
Variables b SE t b SE t
Perceived personalization (x) 0.414*** 0.048 8.636 0.398* 0.059 6.751
Privacy concern (w) –0.125* 0.047 –2.651
X * W –0.160*** 0.037 –4.309
Perceived empathy 0.718*** 0.075 9.573

p<0.05,

p<0.01,

p<0.001.

Download Excel Table

A conditional effect analysis examined the moderating effect of privacy concerns, which were classified based on values one standard deviation above and below the mean (3.2 ±1SD). At low privacy concern levels (–1SD), the indirect effect was 0.022 (95% CI=[–0.058, 0.104]), slightly positive but not statistically significant. At mean level, the indirect effect turned negative at –0.070 (95% CI=[–0.104, –0.035]) and was statistically significant. At high privacy concern levels (+1SD), the indirect effect became more negative at –0.162 (95% CI=[–0.254, –0.074]) and remained significant. The moderated mediation index was –0.115 (95% CI=[–0.175, –0.058]), confirming that the indirect effect significantly varies with privacy concern levels. This demonstrates that increasing privacy concerns not only decreases but may reverse the effect of AI chatbot personalization on customer citizenship behavior through empathy (see <Table 3>).

Table 3. Conditional indirect effects based on privacy concern level
Privacy concern Indirect effect Boot SE 95% confidence interval (CI)
CIlow CIhigh
–1SD(2.4) 0.022 0.015 –0.005 0.049
M(3.2) –0.070 0.017 –0.104 –0.035
+1SD(4.0) –0.162 0.020 –0.203 –0.121
Moderated mediation index –0.115 0.029 –0.175 –0.058
Download Excel Table

Conclusions: This study examines AI chatbot personalization and empathy effects on customer behavior in omnichannel retail, offering four key theoretical insights: (1) chatbots foster emotional connections beyond technical integration, (2) empathy drives customer responses per CASA theory, (3) personalization influences customers through empathy per the AI Device Use Acceptance model, and (4) privacy concerns moderate personalized service effects. Practical implications include strengthening emotional elements in chatbot design, implementing phased personalization strategies based on relationship development, creating “digital personal shopper” experiences, maximizing ROI through customer citizenship behaviors, and introducing emotional recognition technologies at appropriate customer journey points. Limitations include treating empathy as single-dimensional and not fully considering control variables like usage frequency and demographics. The study contributes by expanding chatbots’ role from response tools to value co-creation facilitators, extending research from functional to social-psychological dimensions, and analyzing the personalization-privacy paradox in retail contexts.

Keywords: AI챗봇; AI개인화; 고객시민행동; 인지된 공감; 프라이버시 침해우려
Keywords: AI Chatbot; Personalized AI Service; Customer Citizenship Behavior; Perceived Empathy; Perceived Privacy Concern

Ⅰ. 서론

최근 AI(artificial intelligence)와 빅데이터 영역에서의 눈부신 기술발전은 고객의 구매행동과 기업의 마케팅 활동에 큰 변화를 가져오고 있다. 이러한 기술변화에 힘입어 기업-고객 접점에서의 상호작용 방식도 변하고 있다(Hsu & Lin, 2023). 그 중에서도 두드러진 것이 AI챗봇의 활용이다. AI챗봇은 고객접점에서 발전된 자연어처리 기술 등을 통해서 각 고객의 세밀한 서비스 요청을 이해하고 판매기회를 포착한다. 그리고 고객데이터베이스와 기계학습 알고리즘을 활용해서 각 고객에게 개인화된 응대를 제공한다. 케이비(KB), 신한, 하나 등 주요 시중은행 고객센터 상담사들을 대상으로 실시한 조사에서 ‘AI챗봇에 상담사들의 업무 스킬과 노하우가 적용되어 고객의 문의에 적절하고 자연스럽게 답변한다’는 평가가 51.4%로 절반을 넘었다(박지영, 2024). 유통분야에서도 AI챗봇의 활용성은 최근 급격히 증가하고 있으며 옴니채널 전략의 핵심 요소로 그 중요성이 강조되고 있다. Deloitte(2024)의 유통업 기술 트렌드 보고서에 따르면, 글로벌 유통기업의 73%가 온라인 쇼핑 플랫폼과 모바일앱에 AI챗봇을 도입했으며, 이는 2021년 대비 31% 증가한 수치이다. 특히 코로나-19 이후 비대면 소비 패턴이 정착되면서 AI챗봇은 유통기업의 필수적인 고객 접점 채널로 자리잡았다. McKinsey(2023)의 유통업 분석에서도 AI챗봇은 고객의 장바구니 포기율을 평균 18% 감소시켰으며, 고객당 평균 구매액은 12% 증가했다. 국내 유통업계의 경우도 대형 유통기업의 91%, 중소 유통기업의 62%가 고객 서비스에 AI챗봇을 도입했거나 도입을 계획 중인 것으로 나타났다(대한상공회의소, 2024). 특히 주요 이커머스 플랫폼들은 이미 고객 문의의 평균 64%가 AI챗봇을 통해 처리하며 이로 인해 고객응대 인력의 업무 부담이 43% 감소한 것으로 보고되었다. AI챗봇을 통한 개인화된 쇼핑 경험은 고객 충성도와 재구매 의도에 긍정적 영향을 미치며, 특히 AI챗봇을 통한 24시간 즉각 응대는 고객 만족도를 끌어올리는 핵심 요인으로 작용하는 것이 입증되었다(Dai & Lui 2024). 이러한 결과는 유통업계에서 AI챗봇이 단순한 고객 문의 응대 도구를 넘어 개인화된 쇼핑 경험을 제공하고 구매 전환율을 높이는 전략적 자산으로 진화하고 있음을 보여준다.

최근 빅데이터와 결합한 AI챗봇은 고객의 선호도와 행동 패턴을 정교하게 분석함으로써 유통기업의 마케팅 효율성과 고객 관계 관리 역량을 크게 향상시킨다는 점에서 주목할 필요가 있다(Prabha & Kumari, 2024). 그럼에도 불구하고 마케팅 분야에서 AI챗봇에 관한 기존의 연구들은 다음과 같은 몇 가지 한계점이 존재하였다. 첫째, AI챗봇이 고객과의 주요한 상호작용 채널이라는 점에서 고객서비스 맥락에서 AI챗봇을 이해하는 것이 중요하다. 하지만, 기존 연구들이 AI챗봇의 기능 및 시스템 특성에 주로 초점을 두어서(Lee et al., 2023), AI챗봇의 지능적 특성이 사용자와의 상호작용 경험에 미치는 영향에 대한 이해는 아직 부족하다. 둘째, 유통 맥락에서 AI챗봇의 개인화 수준과 사용자의 심리적, 정서적 반응 간의 관계를 실증적으로 검증한 연구가 제한적이다(Asfaq et al., 2020; Chung et al., 2020). 셋째, AI챗봇과의 상호작용에서 발생하는 공감이라는 정서적 요소가 고객 행동에 미치는 영향 메커니즘에 대한 체계적 연구가 부족하다(Yoon & Lee, 2021). 넷째, AI챗봇의 개인화 서비스에 관한 사용자 반응에 가장 크게 영향을 미칠 수 있는 요소인 프라이버시 침해우려를 고려한 연구가 거의 없다(Fan et al., 2022). 다섯째, AI챗봇-사용자 간 상호작용의 질을 향상시키는 요인과 이러한 상호작용이 고객시민행동과 같은 구체적인 가치 공동 창출 행동으로 이어지는 과정에 대한 통합적 이해가 부족하다.

이러한 선행연구의 한계점을 보완하고자 본 연구는 다음과 같은 목적으로 수행되었다. 첫째, 유통 맥락에서 AI챗봇의 개인화 수준이 사용자의 인지된 공감에 미치는 영향을 실증적으로 검증하고자 한다. 특히 AI챗봇의 지능적 특성이 사용자와의 정서적 연결을 형성하는 매커니즘을 규명한다. 둘째, AI챗봇에 대한 인지된 공감이 고객시민행동이라는 가치 공동 창출 활동에 미치는 영향을 분석하고자 한다. 이를 통해 AI챗봇-사용자 간 관계의 질적 향상이 기업에 실질적 혜택을 제공하는 경로를 밝힐 것이다. 셋째, 프라이버시 침해우려가 AI챗봇의 개인화와 인지된 공감 간의 관계를 조절하는 효과를 검증하고자 한다. 이를 통해 AI챗봇의 개인화 전략 수립에 있어 고려해야 할 중요한 경계조건을 제시한다. 이러한 연구목적을 달성함으로써, 본 연구는 유통업계의 AI챗봇 설계 및 운영에 실무적 시사점을 제공하고, 서비스 마케팅 이론에 AI기술과 고객 심리의 상호작용에 관한 새로운 통찰을 더하고자 한다.

이러한 연구목적을 달성하고자 본 연구는 다음과 같은 이론적 프레임워크를 바탕으로 가설을 수립하였다. 먼저, AI챗봇의 사용자 반응과 수용의도를 제대로 이해하기 위해서는 기존의 기술수용모형(TAM)을 넘어 AI챗봇의 지능적 특성에 주목해야 한다. 이러한 관점에서 CASA(computer are social actor) 이론은 핵심적 기반을 제공한다. CASA 이론에 따르면 인간은 컴퓨터와의 상호작용에도 인간 간 상호작용에 적용하는 사회적 규칙을 무의식적으로 적용한다(Xu et al., 2022). 이는 AI챗봇이 자연어 처리 능력을 통해 인간과 유사한 방식으로 상호작용할 때, 사용자가 이를 사회적 존재로 인식하고 반응함을 의미한다. CASA 이론의 관점은 AI작업대체이론(theory of AI job replacement)과 연결된다. Huang and Rust(2018)는 AI가 기계지능, 분석지능에 이어 마지막으로 공감지능이 요구되는 영역을 대체할 것으로 전망했다. 공감지능은 감성, 소통, 사회적 상호작용과 관련된 지능으로 CASA 이론에서 강조하는 사회적 상호작용의 질적 측면을 결정짓는 핵심 요소다. 최근 AI챗봇의 감성인식, 감정컴퓨팅, 자연어처리 기술 발전은 공감지능의 구현 수준을 높이고 있으며(Huang & Rust, 2022), 이는 결국 CASA 이론이 예측하는 인간-AI 상호작용의 사회적 특성을 더욱 강화한다. AI챗봇의 공감 능력은 개인화 수준에 의해 크게 결정된다(Gursoy et al., 2018).

AIDUA(AI device use adoption) 모형에서도 강조하듯이, 개인화된 상호작용은 사용자가 AI 기술을 수용하고 지속적으로 사용하게 하는 핵심 요인이다(Gursoy et al., 2019). 사용자는 자신의 필요와 선호에 맞춰진 메시지를 제공하는 AI챗봇에 더 큰 공감을 느끼며 이는 CASA 이론이 제시하는 사회적 상호작용 맥락 내에서 관계의 질을 향상시킨다.

또한, CASA 이론의 “미디어를 사회적 행위자로 대하는 경향”은 정보경계이론(IBT: information boundary theory)과 자연스럽게 연결된다. Zakaria et al.(2023)의 연구에 따르면, 사용자들은 AI와 같은 IT시스템을 단순한 도구가 아닌 사회적 존재로 인식할수록 자신의 사적 정보를 공유하는 과정에서 더 복잡한 경계 조정 메커니즘을 작동시키는 경향이 있다. 이는 인간-인간 상호작용에서 어떤 정보는 공유하고 어떤 정보는 지키려는 심리적 긴장이 AI와의 상호작용에서도 비슷하게 나타남을 시사한다. Lim and Shim(2022)은 실증분석을 통해서, 사용자들이 AI를 사회적 존재(social actor)처럼 대할수록 자신의 정보를 AI와 공유하는데 더 신중해지는 경향인 정보경계 투과성이 증가함을 밝혔다. 그러나 이러한 개인화-공감 관계는 정보경계이론(information boundary theory)의 관점에서 볼 때 프라이버시 침해우려라는 중요한 경계조건을 가진다(Dhagarra et al., 2020). 사용자는 자신의 정보경계를 보호하려는 욕구와 개인화된 서비스를 통해 얻는 혜택 사이에서 균형을 찾으려 하며 이는 AIDUA 모형에서 제시하는 혜택-비용 평가 메커니즘과 일치한다.

마지막으로, CASA 이론에서 강조하는 사회적 상호작용의 질적 측면은 서비스 상호작용의 결과로서 고객의 가치 공동 창출 활동으로 이어진다. 공감적 서비스 제공이 고객시민행동(CCB)을 촉진한다는 선행연구(Wieseke et al., 2012)는 AI챗봇 맥락에서도 적용될 수 있으며 이는 서비스 지배적 논리(service-dominant logic)에서 강조하는 가치 공동 창출의 확장된 형태로 볼 수 있다(Jung & Hur, 2022). 앞서 기술한 것처럼, 본 연구는 AI챗봇 사용자의 긍정적 반응과 바람직한 행동을 이끄는 선행요인과 그 영향 매커니즘을 밝히는 것을 목적으로 수행되었다. 이를 위해서 AI챗봇의 지능적 측면에 대한 고객의 심리적, 정서적 반응인 공감의 역할을 실증하는 연구모형을 제시하였다(<그림 1> 참조). AI기술의 활용에 관한 연구가 활발히 수행되고 있는 상황임에도 사용자의 심리적, 정서적 반응이나 행동의도에 주는 영향을 실증적으로 밝힌 연구는 여전히 드물다(Yoon & Lee, 2021). 또한 인간-컴퓨터 상호작용 맥락에서 AI챗봇 서비스의 개인화가 프라이버시 침해 우려로 인해서 인지적 평가나 행동에 영향을 받는다는 사실에 집중한 연구는 저자가 아는 한 아직 없다(Fan et al., 2022). AI관련 기술은 빅데이터 분석에 기반하여 사용자 개인화 수준을 높이고 있다. 또한, 공감지능과 같은 인간적인 측면을 강화하는 방향으로 발전하고 있는 상황이다. 이러한 시점에서 본 연구는 AI챗봇에 대한 인지된 개인화와 인지된 공감이 사용자에게 어떤 영향을 주는지 실증했다는 점에서 차별적 기여가 있다.

jcr-30-2-55-g1
그림 1. 연구의 개념적 모형
Download Original Figure

Ⅱ. 이론적 배경 및 가설

1. AI챗봇과 인지된 개인화

AI는 인간의 학습, 추론, 소통, 인지, 예측, 및 문제해결 역량을 모방하여 만든 기계적 지능을 말한다(Wirth, 2018). 이러한 AI기술을 챗봇에 접목한 것이 AI챗봇이다. AI챗봇은 인간의 대화를 모방하여 메시지를 주고받는 컴퓨터 소프트웨어로 정의된다(Luo et al., 2019). AI챗봇에는 자연어처리, 음성분석, 감성분석 등의 기술이 사용되며 인간-AI챗봇 간 대화는 음성 또는 문자를 통해서 수행된다. 자동화된 소프트웨어로서 인간과의 대화에 참여하는 AI챗봇은 개인적 비서로서 작동하며 사용자의 정보탐색, 쿼리검색 및 사회적 관계형성 등 다양한 과업수행을 지원한다(Pelau et al., 2021). 이러한 특성 때문에 AI챗봇은 서비스 맥락에서 고객응대 접점에서 주요한 조력자로서 역할을 수행하고 있다(Ashfaq et al., 2020).

고객-기업 간 상호작용에서 AI 및 데이터 분석기술을 활용한 개인화는 고객관계 관리의 핵심으로 부상하였다(Lavado-Nalvaiz, 2022). 온라인상에서 고객 데이터베이스, 어플리케이션 및 소프트웨어 등을 활용해서 고객에게 개인화된 대응을 하는 방식을 기술매개 개인화(TMP: technology mediated personalization)라고 한다(Ameen et al., 2021). 기술매개 개인화는 서비스 직원의 두뇌가 아니라 고객 데이터베이스에 축적된 정보를 활용한다는 점에서 기존의 개인화와 다르다. 이것은 온라인상에서 고객선호에 관한 지속적인 적응학습과 지식축적을 수행한다. 이를 통해 고객 개개인에게 맞춤화 된 제품과 서비스를 제공하는 전문성을 습득한다. 기술매개 개인화 과정에는 고객과 기업 모두 AI와 같은 IT기술이 매개된 학습적 관계에 참여한다. 그리고 거래관계가 지속되면 경쟁사가 모방하기 어려운 독특한 지식에 기반한 개인화가 구축된다. 성공적인 개인화는 고객의 마음에 전환장벽을 형성함으로써 고객을 유지하는 요인으로 작용한다. 때문에, 기술매개 개인화의 수준이 높으면 기업-고객 간 관계형성에 전반적으로 긍정적인 영향을 미친다(Shen & Ball, 2009).

기술매개 개인화 관점에서 AI챗봇 기술은 3단계로 구분된다(Challa, 2023). 1세대 AI챗봇은 키워드를 중심으로 정보를 검색하는 단순한 구조였다. 2세대는 자연어처리 알고리즘을 탑재하고 사람의 의도를 파악해서 답변을 하는 수준으로 발전하였다. 여기에는 키워드 매칭, 유의어 사전 등의 자연어처리 기술이 적용되었다. 현재는 3세대 AI챗봇으로까지 발전하였다. 3세대 AI챗봇은 사용자의 행동을 데이터로 누적해서 지속적으로 학습함으로써 반응을 사용자에 맞춰 개인화한다. 따라서 사용자에게 최적화된 대응을 하는 것이 가능하다. 또한 기계 독해(machine reading comprehension) 기술을 활용해서 질문이 입력되면 질문의 맥락을 이해하고 적절한 답을 제시하는 방식으로 작동한다(Alazzam et al., 2023).

더욱이 최근에는 오픈AI의 챗GPT, 구글의 제미나이와 같은 거대언어모형(LLM: large language model)에 기반한 AI챗봇이 빠르게 성장하고 있다. 이러한 거대언어모형 기반 3세대 AI챗봇은 사용자의 감정상태 파악을 위해 탐색적 질문을 활용하고 대화의 연속적 맥락을 기억하며 스스로의 정체성을 일관되게 유지하는 수준까지 발전한 상태다. 일부 연구자는 3세대 AI챗봇이 감정이해 역량에서 인간의 수준을 추월했다고까지 주장하는 상황이다(Elyoseph et al., 2023). 인간은 주체적인 존재라는 점에서 일방적인 대화상대에 대해서는 본능적인 반감을 보인다. 이러한 점을 고려한다면 사용자에게 개개인에게 맞춤화된 반응을 제공하는 3세대 AI챗봇 기술의 발전은 고객-기업 간 관계형성에 큰 변화를 가져올 것으로 예상된다. 최근 연구에 따르면, 인지된 개인화는 고객-기업 간 관계에서 신뢰와 만족도를 증진시키는 핵심 요인으로 작용하며(Hill & Troshani, 2024), 특히 3세대 AI챗봇이 제공하는 고도화된 개인화 서비스는 고객의 참여도와 충성도를 향상시키는 데 중요한 역할을 한다는 사실이 밝혀졌다(Li., 2023).

이에, 본 연구에서는 인지된 개인화를 “사용자가 AI챗봇과의 상호작용에서 자신의 개인적 선호, 요구, 과거 행동 데이터가 고려되어 자신에게 맞춤화 된 응답과 서비스를 제공받고 있다고 인식하는 정도”(Shahzad et al., 2024)로 정의하고 연구를 수행하였다.

2. 인지된 개인화와 고객시민행동

인지된 개인화는 고객의 니즈와 선호에 맞춤화된 서비스 경험을 제공함으로써 고객의 가치 공동창출 활동 참여를 촉진한다(Chen et al., 2024). Abdulaziz and Maiyaki(2018)의 연구에 따르면, 고객은 개인화된 서비스를 통해 자신의 의견이 중요하게 취급된다고 느낄 때 기업의 가치 창출 과정에 더 적극적으로 참여하는 경향이 있다. 특히 디지털 환경에서 인지된 개인화는 고객의 심리적 주인의식(psychological ownership)을 강화하여 피드백 제공, 지식 공유와 같은 공동창출 행동을 유의미하게 증가시킨다(Kim & Jeong, 2023).

고객의 가치 공동창출 활동 중 대표적인 것으로 고객시민행동(CCB: customer citizenship behavior)을 꼽을 수 있다. 고객시민행동은 고객이 수행할 것으로 기대되는 역할을 뛰어넘는 고객의 추가적인 역할행동(extra-role behavior)을 말한다(Jung & Hur, 2022). 선행연구에서는 고객시민행동을 ‘고객에게 공식적으로 요구되지 않았더라도 기업의 전반적인 이익을 위해서 기업을 지원하는 고객의 행동’으로 정의하였다(Tung et al., 2017). 고객시민행동은 기업이 가치를 창출하고 전달하는 데 도움을 준다. 이러한 고객시민행동의 예로서 기업의 제품품질 개선을 위해 고객이 자발적으로 제안하거나 정보를 피드백 하는 것을 들 수 있다. 이외에도 다른 고객이 겪는 문제를 해결하는 것을 돕거나, 자발적으로 긍정적인 입소문을 퍼뜨리며, 제품에 문제가 있더라도 더 잘 인내하는 경향을 보이는 것 등이 있다(Jung & Hur, 2022).

Kaur and Dhir(2023)의 연구에 따르면, AI챗봇의 개인화된 서비스는 사용자의 심리적 소유감과 가치 인식을 강화함으로써 고객의 자발적 공헌 행동을 유도한다. Liu and Wei(2023)는 개인화된 AI 상호작용이 사회적 존재감을 매개로 고객의 정서적 몰입을 높이고, 이것이 브랜드 시민행동으로 발전하는 과정을 실증하였다. Wang et al. (2022)의 연구는 AI챗봇의 개인화된 서비스가 지각된 유용성과 고객만족을 넘어 고객시민행동과 같은 역할 외 행동으로 확장되는 현상을 가치호혜성 이론으로 설명하였다. 또한 Huang et al. (2024)은 신뢰형성을 통해 개인화된 AI서비스가 고객시민행동으로 이어지는 매커니즘을 실증함으로써 고객시민행동이 AI서비스 환경에서 기업의 지속가능한 성장을 위한 핵심적 결과변수로 작용함을 밝혔다.

이에, 본 연구에서는 고객시민행동을 1) 서비스나 제품 개선을 위한 자발적 피드백 제공, 2) 다른 고객의 문제 해결을 돕는 행동, 3) 기업이나 서비스에 대한 자발적 긍정적 구전 활동, 4) 서비스 실패나 문제 상황에서 보이는 관용적 태도와 인내 등의 구체적 행동차원으로 정의하였다. 그리고 인지된 개인화가 대표적인 고객가치 공동창출 활동인 고객시민행동을 증가시킬 것으로 예상하였다.

가설 1. AI챗봇 서비스의 인지된 개인화는 고객시민행동을 증가시킬 것이다.

3. 인지된 공감과 CASA 이론

공감은 ‘타인의 경험과 감정에 대한 인지적 이해와 감성적 반응이 결합된 것’으로 정의된다(Yoon & Lee, 2021). 공감은 타인의 기분, 감정, 관점을 이해하고 나누는 능력으로서 타인의 개인적인 감정에 적극적으로 연결하고 생각과 니즈를 인식하는 것이다. 그래서, 공감은 감성적 요소와 인지적 요소를 포괄한다(Pelau, 2021). 공감의 감성적 요소는 타인을 신경 쓰고 걱정하는 감정과 타인과 유사한 감정상태를 경험하는 능력이며 공감의 인지적 요소는 타인의 감정, 생각, 경험을 이성적으로 이해하고 이에 맞는 적합한 행동을 취하는 능력이다(Weisz & Cirkara, 2021).

선행연구자들은 고객-기업 간의 상호적 이해라는 관점에서 공감을 중요한 개념으로 다뤄왔다(Kim & Jang, 2022). 무엇보다, 공감은 고객응대 종업원이 갖춰야 하는 필수적인 역량으로 취급되었다. 공감능력이 높은 종업원은 고객의 개인적 니즈와 욕구에 더 집중하는 경향이 있다. 그리고, 고객과의 상호작용 과정에서 개인적인 관심과 지지행동을 적극적으로 표현한다. 그래서, 종업원이 고객에게 개인화된 서비스를 제공하는 경우에 고객은 종업원이 더 공감적이라고 평가하는 것이다.

앞서 언급한 3세대 AI챗봇은 빅데이터를 분석해서 고객 개개인의 니즈를 파악하고 이에 맞는 개인화된 반응을 보인다. 그 결과로 고객은 AI챗봇으로부터 공감을 인식하는 것이 가능하다. Jiang et al.(2022)은 AI챗봇-고객 간 대화로 인해 발생된 공감이 관계의 질을 높인다는 것을 실증하였다. 연구자들은 사회교환이론(SET: social exchange theory)에 기반해서 AI챗봇의 효용이 투입되는 비용보다 클 때 공감인식이 형성된다고 설명하였다. 사용자가 개인화된 대화를 통해서 상호작용의 가치를 높게 인식하면 AI챗봇에 대해 공감을 느끼는 것이다. Huang and Rust(2018)의 연구에서는 로봇이 사용자에게 개인화된 반응을 통해 공감을 불러일으키면 로봇에 대한 수용도가 제고되는 것으로 나타났다. 이외에도 고객접점 로봇을 연구한 Wirth(2018)도 공감과 같은 로봇의 사회적, 감성적 역량이 고객의 로봇서비스 수용을 촉진함을 밝혔다. 이러한 선행연구를 보면 AI챗봇이 고객의 개인화 니즈를 충족시키는 경우 고객은 AI챗봇에게 공감을 느낄 것으로 예상할 수 있다(Ashfag et al., 2020).

인간이 AI챗봇에 공감을 느끼는 이유는 CASA (computer are social actor) 이론의 틀로도 설명된다. CASA 이론에 따르면 사람들은 컴퓨터와의 상호작용을 인간과의 상호작용처럼 인식한다(Nass, 1996). 컴퓨터와의 상호작용을 다른 인간과의 커뮤니케이션으로 혼동하는 것이다(Gambino et al., 2020). 그래서 사용자들은 컴퓨터가 왜 사회적 행동을 하는지에 대해 의문을 갖지 않으며 인간 사이의 상호작용에 적용되는 사회적 규칙을 컴퓨터에도 동일하게 적용한다. 사용자가 AI챗봇과 같이 컴퓨터 기술에 기반한 객체를 인간과 유사하게 인식한 결과, 인간 사이에 적용되는 발화 규칙이 무의식적으로 컴퓨터에도 적용되는 것이다. 앞서 강조한 것처럼 3세대 AI챗봇들은 인간의 개인화 행동을 기술적으로 모사함으로써 공감능력을 향상시켰다. 고객응대 챗봇부터 정신건강을 관리하는 상담 챗봇까지 개인화를 통해 공감을 불러일으키는 기술을 갖춘 AI챗봇들은 이제 보편화되고 있다(Seitz, 2024).

본 연구에서는 공감의 두 차원 중 인지적 공감(cognitive empathy)만을 고려하였다. Prentice and Nguyen(2023)의 연구에 따르면, 현재 AI 기술은 정서적 공감보다 인지적 공감을 구현하는 데 더 효과적이다. AI챗봇은 데이터에 기반한 사용자 니즈 파악과 맥락 이해에는 상당한 진전을 보였으나 진정한 감정적 유대감 형성에는 아직 기술적 한계가 존재한다. Chen and Li(2023)의 연구에서는 AI챗봇이 정서적 공감을 표현할 경우 오히려 ‘불쾌한 골짜기(uncanny valley)’ 현상을 일으켜 사용자에게 부정적 반응을 초래할 수 있음이 확인되었다. ‘불쾌한 골짜기’ 현상은 로봇이나 가상 캐릭터가 인간과 매우 유사하지만 완전히 동일하지 않을 때, 사용자에게 불쾌감이나 거부감을 유발하는 현상을 의미한다. Bae et al.(2023)의 기술수용 연구에 따르면, 불쾌한 골짜기 현상은 사용자의 지각된 유용성과 사용의도에 직접적인 부정적 영향을 미치며, 특히 브랜드 신뢰도가 낮은 AI 서비스에서 이러한 효과가 더욱 두드러지는 것으로 나타났다. 또한, 채널에서 AI챗봇의 역할은 주로 문제 해결과 정보 제공에 초점이 맞춰져 있다. Zhang et al.(2024)의 연구에 따르면, 쇼핑 과정에서 사용자들은 AI챗봇으로부터 감정적 유대감보다 인지적 공감(예: 니즈에 대한 정확한 이해, 적절한 해결책 제시)을 더 중요하게 평가한다. Wang and Park(2023)은 유통채널 AI챗봇 상호작용에서 인지적 공감이 구매 결정과 서비스 만족도에 정서적 공감보다 더 강한 영향을 미친다고 보고했다. 구매나 고객서비스 맥락에서 사용자들은 AI챗봇에게 감정적 연결보다는 자신의 요구사항과 상황에 대한 정확한 이해를 더 중요시한다. 이러한 맥락에서 Zhao and Yang(2023)는 AI챗봇에 대한 정서적 공감 측정은 아직 타당도와 신뢰도에 한계가 있는 반면, 인지적 공감 측정은 상대적으로 안정적인 결과를 나타냄을 실증하였다.

이러한 최근 연구 결과들을 종합할 때, 현 단계 AI챗봇과의 상호작용에서는 인지적 공감에 초점을 맞추는 것이 실용적이고 현실적인 접근법이라 판단하였다. 특히 유통업 맥락에서 AI챗봇의 효과적인 역할 수행을 위해서는 사용자 니즈에 대한 인지적 이해와 적절한 대응 능력이 더 핵심적인 요소임을 고려하여 본 연구에서는 인지적 공감만을 변수로 활용하였다. 사용자가 인간의 상호작용 기술을 모사한 AI챗봇에게 지능과 같은 인지적인 인간적 특질을 부여할 가능성은 다른 컴퓨터매개 커뮤니케이션보다 높다(Pelau, 2021). 이러한 점에서 챗봇과의 상호작용에서 인지된 개인화는 AI챗봇에 대한 인지된 공감에 긍정적인 영향을 줄 것으로 예상된다.

종합하면, 인지된 공감이란 “사용자가 AI챗봇과의 상호작용 과정에서 자신의 요구와 상황을 챗봇이 정확하게 이해하고 적절하게 대응한다고 느끼는 정도”로 정의할 수 있다. 구체적으로, 이는 AI챗봇이 (1) 사용자의 니즈와 상황적 맥락을 올바르게 파악하는 능력, (2) 사용자의 관점에서 문제를 이해하는 능력, 그리고 (3) 이에 기반하여 개인화된 적절한 해결책이나 정보를 제공하는 능력에 대한 사용자의 인식을 의미한다. 본 연구에서는 Zhao and Yang(2023)의 연구에 기반하여, 인지된 공감을 AI챗봇의 인지적 공감 요소에 중점을 두고 측정하였다. 이것은 현재 AI 기술 수준과 유통업 맥락에서의 사용자 기대에 더 부합하는 접근법이다.

4. 인지된 공감과 고객시민행동

서비스 품질측정에 널리 사용되는 SERVQUAL 모형에서 공감은 가시성, 신뢰성, 응답성, 보증성과 함께 서비스 품질을 구성하는 다섯 가지 차원 중 하나다(Raza et al., 2020). 웹사이트 품질을 측정하는 WebQual 모형을 개발한 Barnes and Vidgen(2002)은 사용자 친화성, 정보성, 신뢰성과 함께 공감이 웹사이트 품질을 구성하는 주요한 요소임을 밝혔다. 이외에도 인터넷 쇼핑사이트(Rafiq et al., 2012), 인터넷서비스(Collier & Bienstock, 2006), 온라인플랫폼(Ali et al., 2021) 등 온라인 기반 서비스의 품질구성 요소로 공감이 공통적으로 포함되었다. 이러한 공감은 관계 참여자들 사이에 관계의 질을 제고하는 것으로 널리 인정받아 왔다(김봉석, 유재원, 2025; 안진우, 2021). 서비스 맥락에서도 고객접점에서 종업원의 공감이 고객만족과 고객반응에 긍정적 영향을 준다는 사실은 여러 연구를 통해 입증되었다(Bahadur et al., 2020). 예를 들어, 종업원과 고객 사이에 형성된 상호적 공감은 고객의 만족과 종업원의 고객중심적 행동을 제고하며(Ngo et al., 2020), 종업원의 공감적 행동은 고객의 가치 공동창출 활동에 대한 참여를 높인다(Wieseke et al., 2012).

이렇듯, AI챗봇에 대한 사용자의 공감은 고객시민행동과 같은 긍정적 고객반응으로 연결될 것으로 예상된다(Longoni & Cian, 2022). 고객이 종업원에게 공감을 느끼면 라포(rapport)가 형성된다. 그 결과, 고객만족, 신뢰, 긍정적 구전과 같은 바람직한 고객반응이 강화된다. 또한, 공감을 통해 형성된 라포는 고객시민행동을 제고한다(Kim & Jang, 2023). 선행연구들은 공감을 통해 형성된 라포는 다른 고객이 더 나은 의사결정을 하도록 도움을 주거나, 기업이 더 우수한 서비스를 제공하도록 피드백 하는 행동을 제고하며(Delpechitre et al., 2018), 고객의 관용적 태도를 불러일으킨다는 사실을 밝혔다(Butrus & Witenberg, 2013). 앞서 CASA 이론에 기반하여 논의한 것처럼, 사용자는 AI챗봇과의 상호작용을 인간 종업원의 상호작용과 유사하게 인식한다. 그래서 AI챗봇에게도 공감을 느낄 수 있는 것이다. 또한, 이러한 공감을 통해서 라포가 형성된 사용자는 고객시민행동을 보일 것으로 예상할 수 있다.

5. 인지된 공감의 매개효과

AI기기사용 수용모형(AIDUA: artificial intelligence device use acceptance)은 고객과 서비스 제공자 간의 상호작용 맥락에서 고객의 AI기기사용 수용을 설명하는 이론적 틀로서 제시되었다(Gursoy et al., 2019). AI기기사용 수용모형에 따르면 고객의 AI챗봇 수용은 세 단계를 거친다.

첫째는 일차 평가(primary appraisal)다. 이 단계에서 고객은 AI챗봇과 상호작용하면서, AI챗봇의 사용이 자신에게 얼마나 관계되어 있는지를 판단한다. 상호작용 과정에서 개인화된 메시지를 수용할수록 사용자는 AI챗봇이 자신과 연관되어 있다고 인식한다(Yoon & Lee, 2021). 두 번째는 이차 평가(secondary appraisal)다. 이 단계에서 사용자는 AI챗봇을 사용할 때 치러야 하는 기대비용과 얻을 수 있는 기대효익을 비교한다. 이를 통해서 AI기기 사용의 순효용을 평가한다. 그리고, 순효용의 평가결과는 AI챗봇에 대한 사용자의 감성적 반응을 만들어낸다. 사용자는 AI챗봇이 자신과 연관되어 있다고 생각할수록, 즉 상호작용의 개인화 수준이 높을수록 기대효익을 높게 인식하며 더 긍정적인 감성적 반응을 보인다. 마지막은 결과 단계(outcome stage)다. 결과단계에서는 이차 평가의 결과로 형성된 고객의 감성적 반응이 행동의도로 전환된다. 이차 평가에서 긍정적 감성적 반응이 형성되면 기업에 바람직한 행동이 유도되는 것이다. AI기기사용 수용모형의 틀에서 보면, 개인화 수준이 높은 AI챗봇은 고객의 인지된 공감과 같은 긍정적 감성적 반응을 이끌고, 이것을 매개로 하여 바람직한 고객행동인 고객시민행동이 촉진될 것으로 예상할 수 있다. AI챗봇의 인지된 공감의 매개효과는 인지부조화이론(cognitive dissonance theory)으로도 설명할 수 있다. 고객은 대상에 대해 한번 내린 평가를 유지하려는 경향이 있다. 그래서, AI기기에 대한 긍정적인 평가를 내린 경우에는 AI기기에 대한 긍정적 감정을 유지하려고 할 것이다. 또한, 이러한 긍정적 감정은 긍정적인 행동으로 연결될 것이다(Ebermann et al., 2023). 즉 개인화된 상호작용으로 인해서 AI챗봇에 대한 긍정적 평가를 가지게 되면, 긍정적인 감정인 공감을 느끼게 되고, 이것은 다시 고객시민행동으로 연결되는 것으로 볼 수 있다.

본 연구에서는 이러한 이론적 배경 하에 AI기기에 대한 고객의 감성과 행동이 일련의 매개화 프로세스를 통해서 발생될 것으로 예상하고 그 효과를 실증하였다. 먼저 첫 번째 평가단계로 고객이 AI챗봇이 자신과 얼마나 연관되어 있는가에 관한 인식으로 인지된 개인화 수준을 설정하였다. 두 번째 평가단계에서 개인화 수준에 따른 감성적 반응은 인지된 공감으로 설정하였다. 그리고 세 번째 결과 단계에서는 공감이 고객시민행동에 주는 영향을 분석하였다.

가설 2. AI챗봇 서비스의 인지된 공감은 인지된 개인화가 고객시민행동에 주는 영향을 매개할 것이다.

6. 프라이버시 침해우려의 조절효과

최근 기업들은 고객에게 개인화된 메시지를 전달하기 위해서 더 넓은 범위의 정보를 수집하고 활용하는 추세다(Hung & Rust, 2018). 개인의 신상정보부터 인구통계, 구매이력, 온라인 활동, 쇼핑 선호, 라이프스타일, 실시간 위치정보까지 다양한 데이터를 수집, 분석함으로써 개인화된 오퍼링을 제공하고자 노력한다. 성공적으로 구성된 개인화 마케팅 오퍼링은 적재적소에서 적절하게 조정된 메시지를 비용 효율적으로 전달한다. 그래서 고객 데이터 분석에 기반하여 개인화된 오퍼링을 제공하는 기업의 역량은 전반적인 마케팅 성과 제고에 긍정적 영향을 주는 요소로 작용한다(Lavado-Nalvaiz et al., 2022). 한편, 많은 기업들이 마케팅 성과를 제고하기 위해서 개인화 수준을 높임에 따라 고객 개인정보와 행동데이터의 오용 위험과 관련된 프라이버시 침해 이슈가 부각되었다(Martin et al., 2017). 프라이버시란 타인이 자신 또는 자신이 속한 집단에 물리적, 심리적, 정보적, 상호작용적으로 접근하는 것에 대한 개인의 통제와 한계의 표시다. 그래서 프라이버시는 개인정보 사용과 밀접하게 연관되어 있다. Baek and Morimoto(2012)는 프라이버시 침해우려를 ‘개인정보를 타인에게 노출시키는 것을 금지하는 권리에 관한 잠재적 침해우려’로 정의하였다. 프라이버시 침해우려는 개인이 자신에 관한 정보의 통제가 부족하다고 인식할 때 활성화된다. 마케팅 맥락에서 프라이버시 침해우려는 고객이 자신에 관한 여러 종류의 데이터가 기업에 의해 잠재적으로 오용될 위험을 염려하는 것이다. 빅데이터와 디지털기기, 서비스와 관련된 기술발달은 이러한 프라이버시 침해우려를 증가시키고 있다.

고객의 프라이버시 침해우려는 마케팅 개인화에 대한 고객의 태도와 행동에 부정적 영향을 준다는 점에서 주목할 필요가 있다(Kim & Huh, 2017). 일부 선행연구는 개인화된 메시지를 전달하는 광고가 고객에게 프라이버시를 침해하는 것으로 인식되며 그 결과, 마케팅 활동에 부정적 태도를 자극한다는 점을 강조하였다(Yu & Cude, 2009). 프라이버시 침해 우려가 높은 고객은 개인화된 마케팅에 대해 낮은 수준의 관용과 높은 수준의 회의적 태도를 보이며 개인화 메시지를 회피하려는 경향을 보인다(Bleier & Eisebeiss, 2015).

지금까지 살펴본 것처럼, 마케팅 개인화는 긍정적 영향과 부정적 영향을 모두 가지고 있는 양날의 검과 같다(Kim & Huh, 2017). 고객은 자신과 연관된 개인화된 정보를 제공받음으로써 얻는 혜택을 기꺼이 받고자 하는 실용적인 태도를 보인다. 이러한 경우에는 개인화 수준이 높을수록 고객의 만족과 효용도 증가한다. 반면, 고객의 프라이버시 우려는 개인화의 긍정적 효과를 감소시키거나 오히려 부정적인 영향요인으로 작용하도록 만든다. 개인화된 정보를 받는 것에 대해서 개인정보를 지나치게 침해한다는 불만을 가지는 것이다(Shen & Ball, 2009).

고객은 개인화에 대한 욕구수준에서 차이가 있다(Shen & Ball, 2009). 마찬가지로 AI기술이 개인정보를 수집, 활용하는 것에 대한 프라이버시 침해 우려에도 차이를 보인다(Fan et al., 2022). 본 연구에서는 고객의 프라이버시 침해 우려의 수준이 AI챗봇 서비스 개인화가 인지된 공감에 주는 영향을 조절할 것으로 예상하였다. 그리고, 이론적 배경으로 정보경계이론(IBT: information boundary theory)을 도입하였다(Dhagarra et al., 2020). 정보경계이론에 따르면 개인은 스스로 관리하고 통제하기를 원하는 자신만의 정보공간의 경계를 가지고 있다. 그래서 정보경계를 넘는 기업의 어떤 시도에도 불편함을 느끼며 불만이 증가한다. 프라이버시 침해 우려도 개인정보가 고객의 허락 없이 노출되고 사용되는 것에 관한 불편함과 불만이다. 따라서 프라이버시 침해 우려가 큰 고객은 AI챗봇이 개인정보를 활용하여 제공하는 개인화된 상호작용에 대해 효용을 작게 느낄 것으로 추론할 수 있다. 오히려 AI챗봇이 자신만의 정보공간을 침범해서 개인정보를 수집, 활용함으로써 정보경계가 침범된 것을 큰 위협으로 인식할 가능성이 높다(Li et al., 2020). 프라이버시 침해우려가 큰 고객은 AI챗봇이 자신의 정보공간을 침범한다고 인식하면 불편함을 느끼고 그 결과로 AI챗봇은 물론이고 서비스 전반에 대해서도 부정적인 인식을 가지게 되는 것이다. 이와는 반대로, AI챗봇의 개인화된 서비스로부터 얻는 효용을 크게 인지하는 고객은 개인정보 공간의 경계를 덜 고수하며 자신에 대한 정보를 공유하는 것에 대한 거부감도 낮을 것이다. 따라서 AI챗봇의 개인화된 정보제공 수준이 높을수록 AI챗봇에 대해서도 긍정적인 태도를 가지게 될 가능성이 높다.

본 연구에서는 프라이버시 침해우려가 AI챗봇 서비스의 개인화가 AI챗봇에 대한 인지된 공감을 통해 고객시민행동에 영향을 주는 매개경로를 조절하는 조절된 매개효과가 나타날 것으로 예상하였다.

가설 3. 프라이버시 침해우려는 AI챗봇 서비스의 인지된 개인화가 인지된 공감을 매개로 고객시민행동에 영향을 주는 매개경로를 조절할 것이다.

Ⅲ. 연구 방법

1. 표본의 특성

본 연구는 실증분석을 위해 AI챗봇 사용 경험이 있는 대한민국 성인 남녀를 대상으로 설문조사를 실시하였다. 표본의 크기는 구조방정식 모델링 기반 분석을 고려하여 Hair et al.(2010)이 제안한 지침에 따라 관측변수 당 최소 5개의 응답이 필요한 점을 감안하였다. 본 연구의 관측변수는 총 14개로, 최소 70개의 응답이 필요하나 보다 안정적인 결과를 위해 Hair et al.(2010)의 권장대로 관측변수당 10~15개의 응답을 목표로 설정하였다. 설문조사는 국내의 대표적인 패널조사 전문기관인 M사에 의뢰하여 2024년 2월 1일부터 15일까지 약 2주간 온라인으로 진행되었다. 참가자 스크리닝을 위해 ‘최근 1년 이내에 AI챗봇을 통한 고객 서비스를 경험한 적이 있는지’ 여부를 확인하고 실제 AI챗봇 경험이 있는 참가자만을 대상으로 설문을 진행하였다. 총 234명이 설문에 참여하였으며, 응답 시간이 설문 평균 소요시간(12분)의 1/3 미만인 경우(11명)와 AI챗봇 경험에 관한 개방형 질문(“귀하가 경험한 AI챗봇 서비스를 간략히 설명해 주세요.”)에 무응답하거나 비관련 응답을 제시한 응답자(13명)를 제외하였고 최종적으로 210개의 표본을 분석에 사용하였다. 응답자들의 성별은 남성이 64%를 차지하였다. 평균연령은 32.1세(SD=6.75)였고 30대(39%), 20대(31%), 40대(23%), 50대(7%) 순으로 구성되었다. AI챗봇 서비스를 경험한 횟수는 ‘10회 미만’(41.1%)이라는 응답이 가장 많았고, ‘20회 이상’(21.9%), ‘5회 미만’(19.4%), ‘15회 미만’(10.6%), ‘20회 미만’ (7.0%)였다. 응답표본의 81.6%가 최소 5회 이상 AI챗봇 서비스를 경험한 것으로 나타나 AI챗봇이 대 고객 서비스에 널리 활용되고 있음을 표본을 통해서도 확인하였다. 교육수준의 경우 대학교 졸업이 71.3%로 가장 높았고, 대학원 이상 19.2%, 고등학교 졸업이 9.5% 순이었다. AI챗봇 서비스를 처음 경험한 시기는 최근 1년 이내(33.9%), 2년 이내(31.6%), 6개월 이내(16.4%), 3년 이내(10.4%), 3년보다 오래됨(8.7%) 순이어서 비교적 최근에 AI챗봇의 활용이 활성화되었음을 알 수 있었다. 설문응답자의 AI챗봇 서비스 활용경험과 교육수준 등을 종합적으로 고려할 때, 본 연구의 표본은 AI서비스 경험을 조사하는데 적정한 것으로 판단되었다.

2. 변수의 측정항목

본 연구는 선행연구를 통해서 신뢰성과 타당성이 검증된 측정항목을 연구에 목적에 맞도록 일부 수정하여 도입하였다. 모든 측정문항은 5점 척도를 사용하여 측정되었다(1=“전혀 그렇지 않다”, 5=“매우 그렇다”). 먼저 AI챗봇 응대의 인지된 개인화는 AI스피커의 개인화 수준을 측정한 Lavado-Nalvaiz et al.(2022)Zhang and Cruley (2018)의 연구에 도입된 4개 항목을 사용하였다. 다음으로 AI챗봇 응대에 대한 인지된 공감은 헬스케어 AI챗봇의 공감과 진정성에 대한 Seitz (2024)의 연구에서 사용된 3개 항목으로 측정하였다. 고객시민행동의 경우, 서비스에 대해 긍정적으로 말하고, 건설적 대안을 제시하며, 서비스를 개선하기 위한 의견을 표현하는 것과 같은 행동을 측정한 Kim and Jang(2022)의 연구에 제시된 4개의 문항을 활용하였다. 마지막으로 프라이버시 침해우려는 AI챗봇의 사용자 경험과 고객만족에 관한 Cheng and Jiang(2020)의 연구에 사용된 3개 항목으로 측정되었다. 측정항목들은 <표 1>에 정리되어 있다.

표 1. 변수의 측정항목
구성개념 문항약호 측정문항 출처
AI챗봇서비스의 인지된 개인화 PPS1 AI챗봇이 제공하는 정보는 나에게 맞춤화되어 있다. Lavado-Nalvaiz et al.(2022)
PPS2 AI챗봇이 제공하는 정보는 나의 사용행태에 개인화되어 있다.
PPS3 AI챗봇은 내가 무엇을 원하는지 예측하고 적절한 정보를 제공한다.
PPS4 AI챗봇은 나의 니즈가 무엇인지 잘 파악하는 것 같다.
인지된 공감 PEM1 AI챗봇은 나의 입장과 상황을 잘 이해하는 것 같다. Seitz(2024)
PEM2 AI챗봇은 나에게 공감을 표현한다.
PEM3 AI챗봇은 나를 도와주려는 의도를 보인다.
고객시민행동 CCB1 나는 주변사람들에게 AI챗봇의 긍정적인 면을 이야기한다. Kim and Jang (2022)
CCB2 주변사람들이 AI챗봇을 잘 사용하게 도움을 줄 의향이 있다.
CCB3 AI챗봇이 실수를 하더라도 기꺼이 참을 의향이 있다.
CCB4 AI챗봇의 문제점에 대한 개선의견을 제공할 의향이 있다.
프라이버시 침해 우려 PVS1 AI챗봇이 수집한 내 정보는 예측하지 못한 목적으로 사용될 수도 있을 것이다. Cheng and Jing (2020)
PVS2 AI챗봇에게 제공된 정보는 오용될 가능성이 존재한다.
PVS3 AI챗봇 서비스를 사용하는 것은 개인정보와 관련된 큰 불확실성을 가지고 있다.
Download Excel Table

한편, 본 연구에서는 모든 측정 문항이 동일한 응답자로부터 단일 시점에서 수집되었기 때문에 동일방법편의(CMB: common method bias)가 발생할 가능성이 있다. 이러한 CMB는 측정 변수들 간의 관계가 실제보다 과장되게 나타날 수 있는 위험을 초래한다. 따라서 본 연구에서는 CMB 존재 여부를 확인하기 위해 Harman의 단일요인 검증(Harman’s single-factor test)을 실시하였다. 분석 결과, 비회전상태에서 주성분 분석을 통해 도출된 첫 번째 요인은 전체 분산의 28.37%를 설명하는 것으로 나타났다. 이는 일반적으로 CMB가 심각하다고 판단하는 기준인 50%보다 낮은 수치로, 본 연구에서 CMB가 심각한 문제가 아님을 시사한다. 추가적인 검증을 위해 Podsakoff et al.(2003)이 제안한 잠재변수접근법(latent variable approach)을 활용하여 공통방법요인(common method factor)을 포함한 모형과 그렇지 않은 모형을 비교하였다. 분석 결과, 공통방법요인이 설명하는 평균 분산은 3.78%로 나타났으며, 이는 실질적인 구성개념들이 설명하는 평균 분산인 71.23%에 비해 현저히 낮은 수치이다. 또한 모든 지표 항목의 실질적인 구성개념에 대한 요인적재량은 0.61에서 0.89 사이로 통계적으로 유의미했으며(p< 0.001), 공통방법요인에 대한 요인적재량은 –0.12에서 0.14 사이로 대부분 통계적으로 유의미하지 않았다. 이러한 결과들을 종합하면, CMB는 연구결과에 심각한 영향을 미치지 않는 것으로 판단할 수 있다.

3. 변수의 신뢰성과 타당성 분석

본 연구에서 사용한 구성개념들이 신뢰성을 확보하였는지를 검증하기 위해서 변수의 내적일관성과 요인적재량을 확인하였다. 먼저 내적일관성을 평가하는 크론바하알파(Cronhach’ α)계수의 경우 모든 구성개념에서 기준치인 0.7을 넘는 것으로 나타났다. 그리고 합성신뢰도(CR: composite reliability) 값도 모든 구성개념에서 0.7보다 커서 내적일관성 기준을 충족하였다(Nunnally, 1978)(<표 2> 참조).

표 2. 확인적 요인분석 결과
구성개념 문항 약호 λ 크론바하α CR AVE
AI챗봇서비스의 인지된 개인화 PPS1 0.75 0.85 0.87 0.62
PPS2 0.79
PPS3 0.81
PPS4 0.80
인지된 공감 PEM1 0.75 0.79 0.81 0.58
PEM2 0.76
PEM3 0.78
고객시민행동 CCB1 0.84 0.89 0.90 0.75
CCB2 0.88
CCB3 0.85
CCB4 0.90
프라이버시 침해 우려 PVS1 0.75 0.86 0.88 0.60
PVS2 0.74
PVS3 0.77
Download Excel Table

타당성의 확보여부를 확인하기 위해 집중타당성과 판별타당성을 검증하였다. 확인적 요인분석을 실시하여 집중타당성을 살펴보았다. 먼저 측정모형의 적합도 지표는 χ2(84)=214.32(p<0.001), CFI=0.940, TLI=0.930, IFI=0.940, RMSEA=0.07, SRMR=0.04로 나타나 전반적으로 적합함을 알 수 있었다.

다음으로 집중타당성은 잠재변수의 평균분산추출값(AVE: average variance extracted)과 측정항목의 유의성을 통해 확인하였다. 모든 잠재변수의 평균분산추출값이 0.50(p<0.001) 이상으로 기준치를 상회하였고 측정항목 모두 통계적으로 유의하였다. 판별타당성은 잠재변수에 속한 측정항목의 교차요인적재량(cross factor loading)이 다른 측정항목의 적재량에 비해서 뚜렷하게 높고, 각 잠재변수의 평균분산추출 제곱근 값이 다른 잠재변수와의 상관계수 값을 초과하는 경우에 확보된 것으로 본다(Fornell & Larcker, 1981). 분석결과 본 연구의 각 잠재변수에 속한 측정항목의 요인적재량은 다른 측정항목에 비해 뚜렷하게 높게 나타났다. 그리고 모든 잠재변수의 평균분산추출 제곱근 값이 해당 잠재변수와 다른 잠재변수 간의 상관계수값보다 높았다(<표 3> 참조). 이에, 본 연구에 사용된 모든 측정항목은 신뢰도와 타당도가 확보되었음이 확인되었다.

표 3. 판별타당성 검증
변수 1 2 3 4
1. AI챗봇 서비스의 인지된 개인화 0.79
2. 인지된 공감 0.46*** 0.76
3. 고객시민행동 0.55*** 0.62*** 0.87
4. 프라이버시 침해 우려 0.12* 0.34*** 0.30*** 0.77

: 평균분산추출 제곱근,

p<0.05,

p<0.001.

Download Excel Table

Ⅳ. 연구 결과

연구자들은 가설을 검증하기 위해 Hayes(2018)의 Process macro 모델 4번과 7번을 활용하였다(95% CI, n=1,000). 모든 분석에는 통계분석 도구인 R4.3.0, R Studio 2024.04.0+735과 lavvan package 0.6-8 및 processR package 0.2.6을 사용하였다.

1. 인지된 공감의 매개효과 검증

AI챗봇 서비스의 인지된 개인화가 인지된 공감을 매개로 고객시민행동에 영향을 주는 매개경로가 존재하는지 검증하기 위해서 Hayes의 PROCESS MACRO 모델 4번을 사용하여 분석을 실시하였다(Hayes, 2018). 분석 결과, <표 4>에 제시된 것처럼 AI챗봇 서비스의 인지된 개인화가 고객시민행동에 미치는 총효과는 유의한 것으로 나타났다(b=0.671, p<0.001). 이에 가설 1은 지지되었다. 부트스트래핑 분석(n=1,000)을 통해 매개효과를 검증한 결과, 인지된 공감의 간접효과(indirect effect)는 0.273이며 신뢰구간(95% CI= [0.186, 0.371])이 0을 포함하지 않아 통계적으로 유의한 것으로 나타났다. 직접효과 역시 신뢰구간(95% CI=[0.282, 0.514])이 0을 포함하지 않아 유의하였다. 따라서, 인지된 공감은 AI챗봇 서비스의 인지된 개인화가 고객시민행동에 주는 영향경로를 부분 매개한다는 사실을 확인하였다. 이에 가설 2는 채택되었다.

표 4. 인지된 공감의 매개효과 분석
경로 b SE t 95% CI
Low High
총효과(total effect)
AI챗봇 서비스의 인지된 개인화 → 고객시민행동 0.671*** 0.060 11.183 0.553 0.789
간접효과(indirect effect)
AI챗봇 서비스의 인지된 개인화 → 인지된 공감 → 고객시민행동 0.273*** 0.047 - 0.186 0.371
직접효과(direct effect)
AI챗봇 서비스의 인지된 개인화 → 고객시민행동 0.398*** 0.059 6.751 0.282 0.514

간접효과는 부트스트랩 신뢰구간으로 평가되며, t값은 제시되지 않음.

Download Excel Table
2. 프라이버시 침해우려의 조절효과와 조절된 매개효과 검증

AI챗봇 서비스의 인지된 개인화가 인지된 공감을 통해 고객시민행동에 미치는 간접효과가 프라이버시 침해우려에 의해 조절되는지 검증하기 위해 Hayes의 PROCESS MACRO 모델 7번을 사용하여 분석을 실시하였다(Hayes, 2018). <표 5>에 제시된 것처럼 인지된 개인화는 인지된 공감에 긍정적 영향을 미쳤으며(b=0.414, p<0.001), 프라이버시 침해우려는 부정적 영향을 미쳤으나(b= –0.125, p<0.05), 이들 간 상호작용항이 인지된 공감에 미치는 영향이 통계적으로 유의한 것으로 나타났다(b=–0.160, p<0.001). 이는 AI챗봇 서비스의 인지된 개인화가 인지된 공감에 미치는 영향력이 프라이버시 침해우려 수준에 따라 달라진다는 것을 의미한다.

표 5. 조절된 매개효과 분석결과
종속변수
인지된 공감 고객시민행동
독립변수 b SE t b SE t
AI챗봇 서비스의 인지된 개인화(x) 0.414*** 0.048 8.636 0.398*** 0.059 6.751
프라이버시 침해우려(w) –0.125* 0.047 –2.651 - - -
AI챗봇 서비스의 인지된 개인화 × 프라이버시 침해우려 –0.160*** 0.037 –4.309 - - -
인지된 공감 0.718*** 0.075 9.573

p<0.05,

p<0.01,

p<0.001.

Download Excel Table

추가적으로 조절효과를 해석하기 위해 조건부 효과 분석을 실시하였다. 프라이버시 침해우려 수준은 평균값을 중심으로 1개 표준편차만큼 위, 아래에 위치한 값을 기준으로 분류하였다(평균 3.2 ±1SD). 분석 결과, 프라이버시 침해우려 수준에 따른 조건부 간접효과의 차이가 발견되었다. 침해우려가 낮은 수준(–1SD)에서는 간접효과가 0.022(95% CI=[–0.005, 0.049])로 약간의 긍정적이나 신뢰구간이 0을 포함하여 통계적으로는 유의하지 않았다. 평균 수준에서는 간접효과가 –0.070(95% CI=[–0.104, –0.035])로 부정적으로 전환되었고 신뢰구간이 0을 포함하지 않아 통계적으로 유의하였다. 더욱이 침해우려가 높은 수준(+1SD)의 경우 간접효과가 –0.162(95% CI= [–0.203, –0.121])로 더욱 부정적으로 나타났고 통계적으로도 유의했다. 조절된 매개지수는 –0.115 (95% CI=[–0.175, –0.058])로 신뢰구간이 0을 포함하지 않아 AI챗봇 서비스의 인지된 개인화가 인지된 공감을 통해 고객시민행동에 미치는 간접효과가 프라이버시 침해우려 수준에 따라 유의하게 달라짐을 확인하였다. 이러한 결과는 프라이버시 침해우려가 높아질수록 AI챗봇의 개인화가 공감을 통해 고객시민행동에 미치는 영향이 감소할 뿐만 아니라, 오히려 부정적으로 작용할 수 있음을 보여주는 것이다(<표 6> 참조). 이에 따라 프라이버시 침해우려가 인지된 개인화가 인지된 공감을 매개로 고객시민행동에 미치는 매개경로를 조절한다는 가설 3도 채택되었다.

표 6. 프라이버시 침해우려 수준에 따른 조건부 간접효과
프라이버시 침해우려 간접효과 Boot SE 95% 신뢰구간(CI)
CIlow CIhigh
–1SD(2.4) 0.022 0.015 –0.005 0.049
M(3.2) –0.070 0.017 –0.104 –0.035
+1SD(4.0) –0.162 0.020 –0.203 –0.121
조절된 매개지수 –0.115 0.029 –0.175 –0.058
Download Excel Table

Ⅴ. 결론

1. 연구의 요약

본 연구는 AI챗봇 활용이 보편화되고 있는 상황에서(박지영, 2024) 어떻게 사용자들의 긍정적 반응과 바람직한 행동을 이끌어낼 수 있는지를 밝히는 것을 목적으로 수행되었다. 선행연구에서는 AI챗봇의 서비스 실패원인으로 공감과 같은 인간적 품질요소를 구현하는 데 기술적으로 미흡하다는 점을 지적하였다(Huang & Rust, 2018). 최근의 3세대 AI챗봇은 개인화된 상호작용을 통해 사용자의 공감을 극대화하는 방향으로 급속히 발전하고 있다(Elyoseph et al., 2023). 그럼에도 불구하고, 공감의 관점에서 AI챗봇의 효과경로를 분석한 연구는 여전히 드물다(Asfaq et al., 2020; Chung et al., 2020). 이러한 상황에서 본 연구는 유통업계의 옴니 채널 전략에서 AI챗봇의 역할을 단순한 고객응대 도구에서 가치 공동창출의 촉진자로 확장시켰다는 학술적 의의가 있다(Kim & Lee, 2023). 특히 인지된 개인화와 공감이라는 심리적 요인이 고객시민행동에 미치는 영향을 실증함으로써, 기존의 기능적 관점에 집중되었던 유통 챗봇 연구의 범위를 사회심리학적 차원으로 확장했다는 점에서 차별성을 갖는다(Lee & Kang, 2021). 또한, 유통 맥락에서 개인화된 AI챗봇 서비스와 프라이버시 침해우려 사이의 긴장관계를 정보경계이론(IBT)을 통해 체계적으로 분석했다는 점에서 이론적 기여가 있다(Park & Choi, 2024). 고객이 개인정보를 공유함으로써 얻는 혜택과 감수해야 하는 위험 사이의 균형점을 실증적으로 규명함으로써 유통 분야의 개인화-프라이버시 역설에 관한 이론적 이해를 심화시켰다. 본 연구의 결과는 개인화된 마케팅의 긍정적 효과가 프라이버시 침해 우려에 의해 상쇄될 수 있다는 선행연구의 주장을 강화하는 것이다(Bleier & Eisebeiss, 2015; Kim & Huh, 2017; Yu & Cude, 2009).

2. 이론적 시사점

본 연구는 오프라인과 온라인의 경계가 모호해진 오늘날의 유통환경에서 AI챗봇의 개인화와 인지된 공감이 고객시민행동에 미치는 효과를 실증함으로써 다음과 같은 이론적 시사점을 제시하였다.

첫째, 옴니채널 유통전략에서 AI챗봇의 역할이 단순 고객 응대 도구를 넘어서 고객과의 감성적 관계구축 및 브랜드 경험 강화에 핵심적임을 증명하였다. 이러한 결과는 AI챗봇의 개인화 및 감성적 상호작용이 유통채널 통합과 고객경험관리의 중요한 변수로 작용함을 시사한다. 기존의 옴니채널 연구들이 주로 기술적 통합에 초점을 맞추었다면(Thaichon et al., 2023), 본 연구의 결과는 유통채널 통합에 관한 연구의 초점을 기술적 차원에서 감성적 차원으로 확장하는 이론적 근거를 제시하였다. 둘째, 사회적 역할자로서 컴퓨터(CASA) 이론을 유통 맥락에 적용하여 AI챗봇과의 상호작용에서도 공감이 고객 반응을 촉진하는 핵심 요인임을 밝혔다. 이것은 유통 환경에서 AI기술의 적용에 관한 이론적 논의를 기술중심에서 사회적 상호작용 차원으로 확장시키는 기반을 제공한 것이다. 셋째, AI 기기수용모형을 바탕으로 AI챗봇의 기술적 특성(개인화)이 고객관계의 질(공감)을 매개로 사용자 반응으로 연결되는 이론적 매개경로를 제시하여 유통 분야에서 AI 기술 수용과 그 효과에 관한 이론적 이해를 심화시키고 기술-감성-반응으로 이어지는 통합적 이론 모델의 기반을 마련하였다. 넷째, 프라이버시 침해우려가 개인화된 AI 서비스의 효과를 조절한다는 발견은 유통기업이 지속가능한 경쟁우위 창출을 위해 고객데이터 활용과 개인정보 보호 사이의 균형점을 찾아야 함을 시사한다. AI챗봇은 사용자와의 연속적인 대화를 기억하고 이를 개인화에 활용하기 때문에(Elyoseph et al., 2023), 고객이 민감하게 생각하는 프라이버시 정보가 수집, 활용될 위험이 높다. 본 연구는 정보경계이론(IBT)에 기반하여 프라이버시 침해우려의 부정적 효과를 규명함으로써 유통분야에서 개인정보 활용에 관한 후속연구에 이론적 가이드를 제공하였다.

이러한 이론적 시사점들은 AI챗봇을 활용한 유통혁신에서 기술적 차원을 넘어 감성적 차원, 개인정보 보호, 그리고 가치 공동창출까지 포괄하는 보다 통합적이고 확장된 연구를 위한 이론적 토대를 제시한 것이다.

3. 실무적 시사점

본 연구의 결과는 AI챗봇 도입을 준비하거나, 이미 도입 후 지속적인 고도화를 고민하는 마케팅 실무자들에게도 주요한 시사점을 제공한다. 먼저, AI챗봇의 활용효과를 높이기 위해서는 공감과 같은 감성적 요소를 강화해야 한다는 것이다. 지금까지 AI챗봇 설계에는 기능적, 기술적 요소가 강조되었다(Nicolescu & Tudorache, 2022). 하지만, AI챗봇이 단순한 고객응대를 넘어서 의료, 교육, 엔터테인먼트 등 인간적인 상호작용이 요구되는 영역에서 활용되기 위해서는 감성적 요소를 AI챗봇 서비스 디자인에 반영, 평가하고, 개선하려는 노력이 필요하다. 둘째, 본 연구에서 확인된 것처럼 프라이버시 침해우려의 조절효과를 고려하여 AI챗봇 운영 시 단계적 개인화 전략을 수행해야 한다. 기업은 고객과의 관계 발전 단계에 따라 개인화 수준을 점진적으로 높이는 접근이 효과적일 수 있다. 초기 상호작용에서는 기본적인 개인화(예: 이름, 간단한 선호도 활용)에 집중하고, 신뢰 관계가 형성된 후 더 심층적인 개인화(예: 구매이력 기반 추천, 맥락 기반 응대)를 제공하는 전략을 고려해야 한다. 또한 고객이 직접 개인화 수준을 조절할 수 있는 통제 옵션을 제공하여 프라이버시 침해우려를 완화하는 것이 중요하다. 셋째, 유통기업이 AI챗봇을 활용하여 고객의 쇼핑 여정 전반에 걸친 ‘디지털 퍼스널 쇼퍼’ 전략을 구현하는 데 실무적 지침을 제공한다(Smith et al., 2022). 개인화와 공감을 결합한 AI챗봇은 제품 탐색 단계에서부터 구매 후 서비스까지 고객의 니즈를 세밀하게 파악하고 대응함으로써, 고객경험을 향상시키고 재구매율과 고객충성도를 높이는 핵심 도구로 활용될 수 있다. 넷째, 본 연구는 유통기업이 AI챗봇 투자 대비 수익(ROI)을 극대화하기 위한 실무적 가이드라인을 제시한다. 고객시민행동의 촉진이 마케팅 비용 절감(자발적 구전 활동), 서비스 품질 개선(고객 피드백), 그리고 운영 효율성 향상(고객의 인내심 증가)으로 이어지는 경로를 밝힘으로써, 유통기업이 AI챗봇 구현 시 단순 비용 절감을 넘어 고객 가치 공동창출을 통한 지속가능한 성장 전략을 수립하는 데 기여한다. 마지막으로는 AI챗봇의 감성인식과 표현기술을 고객경험 프로세스 상에서 적재적소에 도입할 필요가 있다(정현태 외, 2024). 대표적인 감성인식 AI기술로는 표정인식, 음성인식, 음성과 시각을 혼합한 멀티모달, 상황인식 등이 있다. 이러한 기술의 접목으로 AI챗봇의 공감능력 향상과 사용자와의 상호작용 질 향상을 기대할 수 있다. 동시에, 자연어처리나 음성합성 기술을 통해 AI챗봇의 자연스럽게 감성을 표출할 수 있도록 고도화해야 한다. 감성인식과 표현 모두 충분한 감성데이터의 축적이 선행조건이므로, 기업은 자신의 니즈에 맞는 감성데이터를 축적, 처리하는 역량을 갖추는 것에도 관심을 기울일 필요가 있다. 또한, AI챗봇의 도입은 제대로 된 서비스 기획이 없이는 성공을 보장할 수 없다. 따라서, AI기술 전문가와 마케팅 전문가가 긴밀한 협업을 통해서 개인화와 공감역량을 극대화하는 AI챗봇 시스템을 설계해야 한다.

4. 한계점 및 향후 연구 방향

본 연구의 이론적, 실무적 기여점에도 불구하고 본 연구는 다음과 같은 몇 가지 한계점을 가진다. 첫째는 공감의 구성요소를 세분화하지 않고 단일차원으로 취급하였다는 것이다. 선행연구에 따르면 공감은 다차원으로 구성되는 개념이다(김태훈, 2015). 공감은 인지적 요소와 정서적 요소로 구분되며, 연구자에 따라서는 연민적 요소, 표현적 요소, 의사소통 요소 등이 포함된다. AI챗봇의 개인화는 이러한 공감의 각 요소에 미치는 영향의 크기와 방향이 다를 가능성을 배제할 수 없다. 후속연구에서는 AI챗봇에 대한 공감을 구성하는 요소를 보다 세분화하고 개인화와 프라이버시 침해우려가 미치는 영향을 심층적으로 밝히는 것이 필요하다. 두 번째는 본 연구에서 사용된 측정 문항이 원전에서 제시된 전체 문항을 모두 사용하지 않고 일부만 선별적으로 활용하였다는 점이다. 특히, 고객 시민 행동(customer citizenship behavior)의 경우 Kim and Jang(2023)의 연구에서는 12개의 측정 문항을 사용하였으나, 본 연구에서는 5개 문항만을 선택적으로 사용하였다. 이러한 문항 축소는 전체 설문의 길이를 적정 수준으로 유지함으로써 응답자의 피로도를 최소화하고 응답의 질을 향상시키기 위해서(Deutskens et al., 2004; MacKenzie et al., 2011) 요인 부하량(factor loading)이 가장 높고 개념적 타당도가 검증된 문항과 본 연구의 맥락과 연구 대상에 가장 적합한 문항을 선택하여 내용 타당도를 확보하고자 한 것이다. 이러한 선별적 접근에도 불구하고, 원 척도의 다차원적 특성과 구성개념의 전체적인 의미를 온전히 포착하지 못했을 가능성이 존재한다. 후속연구에서는 이러한 점을 고려하여 보다 확장된 측정항목을 사용, 검증할 필요가 있다. 세 번째는 AI챗봇의 인지된 개인화, 인지된 공감, 고객시민행동 간의 관계에 영향을 미칠 수 있는 다양한 통제변수들을 충분히 고려하지 못했다는 점이다. 특히 챗봇 사용 빈도, 사용 경험 기간, 챗봇이 활용된 산업 분야(금융, 유통, 의료 등), 그리고 인구통계학적 변수(성별, 연령, 교육수준, 소득수준 등)는 본 연구에서 검증한 인과관계에 상당한 영향을 미칠 수 있는 요인들이다. 예를 들어, AI챗봇 사용 빈도가 높은 사용자일수록 챗봇의 개인화 수준을 더 민감하게 인식하거나, 특정 산업(예: 금융)에서의 챗봇 사용은 다른 산업(예: 엔터테인먼트)에 비해 프라이버시 침해우려가 더 크게 작용할 수 있다. 또한 디지털 네이티브(digital native) 세대와 그렇지 않은 세대 간에는 AI기술에 대한 수용도와 공감 인식에 상당한 차이가 있을 수 있다. 이러한 통제변수들을 모형에 포함시키지 않음으로써 연구결과의 내적 타당성이 제한될 수 있으며, 발견된 효과가 실제로는 이러한 통제되지 않은 요인들에 의해 부분적으로 설명될 가능성을 배제할 수 없다. 특히 AI챗봇이 활용되는 산업 분야에 따라 고객의 기대와 인식이 상이할 수 있으므로, 향후 연구에서는 이러한 맥락적 요인들을 적절히 통제하거나 조절변수로 고려하여 보다 정교한 분석을 수행할 필요가 있다.

Notes

이 논문은 2023년도 연세대학교 연구비의 지원을 받아 수행된 것임(교내 과제번호 2023-22-0172).

This research was supported by the Yonsei University Research Fund of 2023 (Project Number 2023-22-0172).

참고문헌

1.

김봉석, 유재원 (2025). 무인점포의 서비스스케이프가 소비자의 부정적 감정 및 불량행동에 미치는 영향: 지각된 고객지원의 조절효과를 중심으로. 유통연구, 30(1), 53-78.

2.

김태훈 (2015). 공감(Empathy)에 관한 연구. 초등도덕교육, 47, 1-28.

3.

대한상공회의소 (2024). 국내기업 AI기술 활용 실태조사. 대한상공회의소 산업정책 보고서.

4.

박지영 (2024). 콜센터 상담원 “나 대신할 AI, 회사가 나한테 훈련시키라고…”. 한겨레.

5.

안진우 (2024). 소매서비스업에서 고객참여가 고객만족에 미치는 영향: 관계적 가치와 점원충성도의 매개효과를 중심으로. 유통연구, 29(1), 65-84.

6.

Yan, W. C., 정선미, 박정은 (2024). 옴니채널 커머스에 대한 소비자의 인지한 특성이 채널 매력도와 지속사용의도에 미치는 영향에 관한 연구. 유통연구, 29(1), 1-17.

7.

Abdulaziz, S. K. & Maiyaki, A. A. (2018). Theorizing the mediating role of customer citizenship behavior on the relationship between perceived service fairness and customer loyalty: A proposed model. Journal of Marketing Management, 9(2), 25-33.

8.

Alazzam, B. A., Alkhatib, M., & Shaalan, K. (2023). Artificial intelligence chatbots: A survey of classical versus deep machine learning techniques. Information Sciences Letters, 12(4), 1217-1233.

9.

Alba, J. W. & Williams, E. F. (2013). Pleasure principles: A review of research on hedonic consumption. Journal of Consumer Psychology, 23(1), 2-18.

10.

Ali, B., Saleh, P., Akoi, S., & Abdulrahman, A. A. (2021). Impact of service quality on the customer satisfaction: Case study at online meeting platforms. International Journal of Engineering, Business & Management, 5(2), 65-77.

11.

Ameen, N., Tarhini, A., Reppel, A., & Anand, A. (2021). Customer experiences in the age of artificial intelligence. Computers in Human Behavior, 114, 106548.

12.

Araujo, T. (2018). Living up to the chatbot hype: The influence of anthropomorphic design cues and communicative agency framing on conversational agent and company perceptions. Computers in Human Behavior, 85(1), 183-189.

13.

Ashfaq, M., Yun, J., Yu, S., & Loureiro, S. M. C. (2020). I, chatbot: Modeling the determinants of users’ satisfaction and continuance intention of AI-powered service agents. Telematics and Informatics, 54, 101473.

14.

Bae, S., Jung, T., Cho, J., & Kwon, O. (2024). Effects of meta-human characteristics on user acceptance: From the perspective of uncanny valley theory. Behaviour & Information Technology, 44(4), 731-748.

15.

Baek, T. H. & Morimoto, M. (2012). Stay away from me: Examining the determinants of customer avoidance of personalized advertising. Journal of Advertising, 41(1), 59-76.

16.

Bahadur, W., Khan, A. N., Ali, A., & Usman, M. (2020). Investigating the effect of employee empathy on service loyalty: The mediating role of trust in and satisfaction with a service employee. Journal of Relationship Marketing, 19(3), 229-252.

17.

Bazerman, M. H., Tenbrunsel, A. E., & Wade-Benzoni, K. (1998). Negotiating with yourself and losing: Making decisions with competing internal preferences. Academy of Management Review, 23(2), 225-241.

18.

Bleier, A. & Eisenbeiss, M. (2015). The importance of trust for personalized online advertising. Journal of Retailing, 91(3), 390-409.

19.

Bolton, R. N., McColl-Kennedy, J. R., Cheung, L., Gallan, A., Orsingher, C., Witell, L., & Zaki, M. (2018). Customer experience challenges: Bringing together digital, physical and social realms. Journal of Service Management, 29(5), 776-808.

20.

Brown, D. & Miller, E. (2020). Information boundary theory and consumer privacy concerns in the digital age. Journal of Consumer Psychology, 30(3), 487-505.

21.

Butrus, N. & Witenberg, R. T. (2013). Some personality predictors of tolerance to human diversity: The roles of openness, agreeableness, and empathy. Australian Psychologist, 48(4), 290-298.

22.

Camacho, C. J., Higgins, E. T., & Luger, L. (2003). Moral value transfer from regulatory fit: What feels right is right and what feels wrong is wrong. Journal of Personality and Social Psychology, 84(3), 498-510.

23.

Cesario, J., Grant, H., & Higgins, E. T. (2004). Regulatory fit and persuasion: Transfer from “Feeling right”. Journal of Personality and Social Psychology, 86(3), 388-404.

24.

Chaterjee, R. (2009). Strategic pricing of new products and services. In Handbook of pricing research in marketing (Vithala R. Rao, Ed.). MA: Edward Elgar Publishing, 169-215.

25.

Chen, F. (2001). Market segmentation, advanced demand information, and supply chain performance. Manufacturing and Service Operations Management, 5(3), 53-67.

26.

Chen, J. & Li, Y. (2023). When AI tries to feel: The uncanny valley effect in AI chatbots’ emotional expressions. Computers in Human Behavior, 141, 107-122.

27.

Cheng, Y. & Jiang, H. (2020). How do AI-driven chatbots impact user experience? Examining gratifications, perceived privacy risk, satisfaction, loyalty, and continued use. Journal of Broadcasting and Electronic Media, 64(4), 592-614.

28.

Chu, L. Y. & Zhang, H. (2011). Optimal preorder strategy with endogenous information control. Management Science, 57(6), 1110-1335.

29.

Chung, M., Ko, E., Joung, H., & Kim, S. J. (2020). Chatbot e-service and customer satisfaction regarding luxury brands. Journal of Business Research, 117(2), 587-595.

30.

Crowe, E. & Higgins, E. T. (1997). Regulatory focus and strategic inclinations: Promotion and prevention in decision-making. Organizational Behavior and Human DecisionProcesses, 69(2), 117-132.

31.

Dai, X. & Liu, Q. (2024). Impact of artificial intelligence on consumer buying behaviors: Study about the online retail purchase. Journal of Infrastructure, Policy and Development, 8(9), 7700.

32.

Dana, J. D. (1998). Advance-purchase discounts and price discrimination in competitive markets. Journal of Political Economy, 106(2), 395-422.

33.

Dastgeer, G., Rehman, A. U., & Asghar, M. A. (2020). Selection and use of mediation testing methods; Application in management sciences. Business and Economic Review, 12(3), 1-48.

34.

Deloitte. (2024). 2024 Retail industry outlook. Deloitte Consulting.

35.

Delpechitre, D., Connelly, K. K., & Chaker, N. N. (2028). Customer value co-creation behavior: A dyadic exploration of the influence of salesperson emotional intelligence on customer participation and citizenship behavior. Journal of Business Research, 92(1), 9-24.

36.

Deutskens, E., De Ruyter, K., Wetzels, M., & Oosterveld, P. (2004). Response rate and response quality of internet-based surveys: An experimental study. Marketing Letters, 15(1), 21-36.

37.

Dhagarra, D., Goswami, M., & Kumar, G. (2020). Impact of trust and privacy concerns on technology acceptance in healthcare: An indian perspective. International Journal of Medical Informatics, 141, 104164.

38.

Dhar, R. & Wertenbroch, K. (2000). Consumer choice between hedonic and utilitarian goods. Journal of Marketing Research, 37(1), 60-71.

39.

Ebermann, C., Selisky, M., & Weibelzahl, S. (2023). Explainable AI: The effect of contradictory decisions and explanations on users’ acceptance of AI systems. International Journal of Human-Computer Interaction, 39(9), 1807-1826.

40.

Eliashberg, J. & Jeuland, A. P. (1986). The impact of competitive entry in a developing market upon dynamic pricing strategies. Marketing Science, 5(1), 20-36.

41.

Eliashberg, J. & Robertson, T. S. (1988). New product preannouncing behavior: A market signaling study. Journal of Marketing Research, 25(3), 282-292.

42.

Elyoseph, Z., Hadar-Shoval, D., Asraf, K., & Lvovsky, M. (2023). ChatGPT outperforms humans in emotional awareness evaluations. Frontiers in Psychology, 14, 1199058.

43.

Fan, H., Han, B., Gao, W., & Li, W. (2022). How AI chatbot have reshaped the frontline interface in China: Examining the role of sales-service ambidexterity and the personalization-privacy paradox. International Journal of Emerging Markets, 17(4), 967-986.

44.

Fornell, C. & Larcker, D. F. (1981). Evaluating structural equation models with unobservable and measurement error. Journal of Marketing Research, 18(1), 39-50.

45.

Freitas, A. L., Liberman, L., & Higgins, E. T. (2002). Regulatory fit and resisting temptation during goal pursuit. Journal of Experimental Social Psychology, 38(3), 291-298.

46.

Gino, F. & Margolis, J. D. (2011). Bringing ethics into focus: How regulatory focus and risk preferences influence (un)ethical behavior. Organizational Behavior and Human Decision Processes, 115(2), 145-156.

47.

Gong, T. & Yi, Y. (2021). A review of customer citizenship behaviors in the service context. The Service Industries Journal, 41(3-4), 169-199.

48.

Gray, J. A. (1987). Perspectives on anxiety and impulsivity: A commentary. Journal of Research in Personality, 21(4), 493-509.

49.

Gupta, R., Nair, K., Mishra, M., Ibrahim, B., & Bharadwaj, S. (2024). Adoption and impacts of generative artificial intelligence: Theoretical underpinnings and research agenda. International Journal of Information Management Data Insights, 4(1), 100232.

50.

Gursoy, D., Chi, O. H., Lu, L., & Nunkoo, R. (2019). Customer acceptance of artificial intelligence (AI) device use in service delivery. International Journal of Information Management, 49(1), 157-169.

51.

Hair, J. F., Black, W. C., Babin, B. J., & Anderson, R. E. (2010). Multivariate data analysis (7th ed.). Pearson Prentice Hall.

52.

Hayes, A. F. (2018). Partial, conditional, and moderated moderated mediation: Quantification, inference, and interpretation. Communication Monographs, 85(1), 4-40.

53.

Higgins, E. T. (1997). Beyond pleasure and pain. American Psychologist, 52(12), 1280-1300.

54.

Higgins, E. T. (2002). Making a good decision: Value from fit. American Psychologist, 55(11), 1217-1230.

55.

Hill, S. R. & Troshani, I. (2024). Chatbot anthropomorphism, social presence, uncanniness and brand attitude effects. Journal of Computer Information Systems, 18(1), 1-17.

56.

Hirschman, E. C. & Holbrook, M. B. (1982). Hedonic consumption: Emerging concepts, methods and propositions. Journal of Marketing, 46(3), 92-101.

57.

Holbrook, M. B. & Hirschman, E. C. (1982). The experiential aspects of consumption: Consumer fantasies, feelings, and fun. Journal of Consumer Research, 9(2), 132-140.

58.

Homburg, C., Koschate, N., & Hoyer, W. D. (2006). The role of cognition and affect in the formation of customer satisfaction: A dynamic perspective. Journal of Marketing, 70(3), 21-31.

59.

Hsu, C. L. & Lin, J. C. C. (2023). Understanding the user satisfaction and loyalty of customer service chatbots. Journal of Retailing and Consumer Services, 71, 103211.

60.

Huang, D., Markovitch, D. G., & Stough, R. A. (2024). Can chatbot customer service match human service agents on customer satisfaction? An investigation in the role of trust. Journal of Retailing and Consumer Service, 76, 103600.

61.

Huang, M. H. & Rust, R. T. (2018). Artificial intelligence in service. Journal of Service Research, 21(2), 155-172.

62.

Huang, M.H. & Rust, R. T. (2022). A framework for collaborative artificial intelligence in marketing. Journal of Retailing, 98(2), 209-223.

63.

Jiang, H., Cheng, Y., Yang, J., & Gao, S. (2022). AI-powered chatbot communication with customers: Dialogic interactions, satisfaction, engagement, and customer behavior. Computers in Human Behavior, 134, 107329.

64.

Jung, C. M. & Hur, W. M. (2022). How do customers’ perceptions of corporate social responsibility contribute to sustainable customer citizenship behavior? The mediating mechanisms of corporate brand pride and self-brand connection. Corporate Social Responsibility and Environmental Management, 29(2), 1676-1688.

65.

Kaur, P. & Dhir, A. (2023). Understanding user engagement with AI-powered chatbots: The role of perceived personalization and anthropomorphism. Computers in Human Behavior, 141, 107586.

66.

Kempf, D. S. (1999). Attitude formation from product trial: Distinct roles of cognition and affect for hedonic and functional products. Psychology and Marketing, 16(1), 35-50.

67.

Kim, H. & Huh, J. (2017). Perceived relevance and privacy concern regarding online behavioral advertising (OBA) and their role in consumer responses. Journal of Current Issues and Research in Advertising, 38(1), 92-105.

68.

Kim, J. & Jeong, H. J. (2023). ‘It’s my virtual space’: The effect of personalized advertising within social media. International Journal of Advertising, 42, 1267-1294.

69.

Kim, J. & Lee, S. (2023). The impact of AI chatbot personalization on customer engagement and loyalty in online retail. Journal of Retailing and Consumer Services, 70, 103145.

70.

Kim, M. & Jang, J. (2022). I know you, you know me: The effects of customer empathy and employee self-disclosure on customer citizenship behavior. Journal of Service Theory and Practice, 33(1), 23-45.

71.

Kivetz, R. & Simonson, I. (2002). Earning the right to indulge: Effort as a determinant of customer preferences toward frequency program rewards. Journal of Marketing Research, 39(2), 155-170.

72.

Klein, K. & Melnyk, V. (2016). Speaking to the mind or the heart: Effects of matching hedonic versus utilitarian arguments and products. Marketing Letters, 27(1), 131-142.

73.

Lavado-Nalvaiz, N., Lucia-Palacios, L., & Pérez-López, R. (2022). The role of the humanization of smart home speakers in the personalization-privacy paradox. Electronic Commerce Research and Applications, 53, 101146.

74.

Lee, E. S., Ju, N., & Lee, K.-H. (2023). Service chatbot: Co-citation and big data analysis toward a review and research agenda. Technological Forecasting and Social Change, 194, 122722.

75.

Lee, M. & Kang, T. (2021). A study on the factors affecting customer citizenship behavior in the use of AI chatbots in the service industry. Service Business, 15(4), 601-623.

76.

Li, B. (2023). How does friendship artificial intelligence chatbots (FAIC) benefit the continuance using intention and customer engagement? Journal of Consumer Behaviour,22(6), 1376-1398.

77.

Li, C. & Zhang, F. (2013). Advance demand information, price discrimination, and preorder strategies. Manufacturing and Service Operations Management, 15(1), 57-71.

78.

Li, L., Lee, K. Y., Emokpae, E., & Yang, S.B. (2021). What makes you continuously use chatbot services? Evidence from Chinese online travel agencies. Electronic Markets, 31(1), 575-599.

79.

Liberman, N., Idson, L. C., Camacho, C. J., & Higgins, E. T. (1999). Promotion and prevention choices between stability and change. Journal of Personality and Social Psychology, 77(6), 1135-1145.

80.

Lim, S. & Shim, H. (2022). No secrets between the two of us: Privacy concerns over using AI agents. Cyberpsychology: Journal of Psychosocial Research on Cyberspace, 16(4), 2022-4-3

81.

Liu, X. & Wei, K. K. (2023). Perceived personalization in human-chatbot interaction: The mediating role of social presence. Journal of Retailing and Consumer Services, 70, 103149.

82.

Longoni, C. & Cian, L. (2020). Artificial intelligence in utilitarian vs. hedonic context: The “word-of-machine” effect. Journal of Marketing, 86(1), 91-108.

83.

Luo, X., Tong, S., Fang, Z., & Qu, Z. (2019). Frontiers: Machines vs. Humans: The impact of artificial intelligence chatbot disclosure on customer purchases. Marketing Science, 38(6), 937-947.

84.

MacKenzie, S. B., Podsakoff, P. M., & Podsakoff, N. P. (2011). Construct measurement and validation procedures in MIS and behavioral research: Integrating new and existing techniques. MIS Quarterly, 35(2), 293-334.

85.

Maclnnis, D. J. & Jaworski, B. J. (1989). Information processing from advertisements: Toward an integrative framework. Journal of Marketing, 53(4), 1-23.

86.

Martin, K. D., Borah, A., & Palmatier, R. W. (2017). Data privacy: Effects on customer and firm performance. Journal of Marketing, 81(1), 36-58.

87.

McCardle, K., Rajaram, K., & Tang, C. S. (2004). Advance booking discount programs under retail competition. Management Science, 50(5), 701-708.

88.

McKinsey. (2023). The state of AI in 2023: Generative AI’s breakout year. McKinsey & Company.

89.

Melnyk, V., Klein, K., & Völckner, F. (2012). The double-edged sword of foreign brand names for companies from emerging countries. Journal of Marketing, 76(6), 21-37.

90.

Mitchell, V. W. & Boustani, P. (1993). Market development using new products and new customers: A role for perceived risk. European Journal of Marketing, 27(2), 17-32.

91.

Moe, W. & Fader, P. (2002). Using advance purchase orders to forecast new product sales. Marketing Science, 21(3), 347-364.

92.

Monod, E., Lissillour, R., Köster, A., & Jiayin, Q. (2022). Does AI control or support? Power shifts after AI system implementation in customer relationship management. Journal of Decision Systems, 32(3), 542-565.

93.

Ngo, L. V., Nguyen, T. N. Q., Tran, N. T., & Paramita, W. (2020). It takes two to tango: The role of customer empathy and resources to improve the efficacy of frontline employee empathy. Journal of Retailing and Customer Services, 56, 102141.

94.

Nicolescu, L. & Tudorache, M. T. (2022). Human-computer interaction in customer service: The experience with AI chatbot – A systematic literature review. Electronics, 11(10), 1579.

95.

Novak, T. P., Hoffman, D. L., & Duhachek, A. (2003). The influence of goal-directed and experiential activities on online flow experiences. Journal of Consumer Psychology, 13(1-2), 3-16.

96.

Nunnally, J. C. (1978). An overview of psychological measurement. In B. B. Wolman (Ed.), Clinical diagnosis of mental disorder: A handbook (pp. 97-146). Springer.

97.

Okada, E. M. (2005). Justification effects on consumer choice of hedonic and utilitarian goods. Journal of Marketing Research, 42(1), 43-53.

98.

Park, C. W., Jaworski, B. J., & MacInnis, D. J. (1986). Strategic brand concept-image management. Journal of Marketing, 50(4), 135-145.

99.

Park, H. & Choi, Y. (2024). Understanding the privacy paradox in the context of personalized AI chatbot services in the retail industry. Information & Management, 61(2), 103572.

100.

Pelau, C., Dabija, D.C., & Ene, I. (2021). What makes an AI device human-like? The role of interaction quality, empathy and perceived psychological anthropomorphic characteristics in the acceptance of artificial intelligence in service industry. Computer in Human Behavior, 122, 106855.

101.

Pham, M. & Chang, H. H. (2010). Regulatory focus, regulatory fit, and the search and consideration of choice alternatives. Journal of Consumer Research, 37(4), 626-640.

102.

Prabha, C. & Kumari, S. (2024). AI in marketing. Advances in Marketing, Customer Relationship Management, and e-Services Book Series, 11-25.

103.

Prelec, D. & Loewenstein, G. (1998). The red and the black: Mental accounting of savings and debt. Marketing Science, 17(1), 4-28.

104.

Prentice, C. & Nguyen, M. (2023). Cognitive versus emotional empathy in AI service interactions: A comparative study of customer perceptions. Journal of Service Research, 26(2), 218-236.

105.

Rafiq, M., Lu, X., & Fulford, H. (2012). Measuring internet retail service quality using E-S-QUAL. Journal of Marketing Management, 28(9-10), 1159-1173.

106.

Ramanathan, S. & Menon, G. (2006). Time-varying effects of chronic hedonic goals on impulsive behavior. Journal of Marketing Research, 43(4), 628-641.

107.

Ramanathan, S. & Williams, P. (2007). Immediate and delayed emotional consequences of indulgence: The moderating influence of personality type on mixed emotions. Journal of Consumer Research, 34(2), 212-223.

108.

Raza, S. A., Umer, A., Qureshi, M. A., & Dahri, A. S. (2020). Internet banking service quality, e-customer satisfaction and loyalty: The modified e-SERVQUAL model. The TQM Journal, 32(6), 1443-1466.

109.

Robinson, W. T. & Fornell, C. (1985). Sources of market pioneer advantages in consumer goods industries. Journal of Marketing Research, 22(3), 305-317.

110.

Rook, D. R. (1987). The buying impulse. Journal of Consumer Research, 14(2), 189-199.

111.

Schmalensee, R. (1982). Product differentiation advantages of pioneering brands. The American Economic Review, 72(3), 349-365.

112.

Seitz, L. (2024). Artificial empathy in healthcare Chatbots: Does it feel authentic?. Computers in Human Behavior. Artificial Humans, 2, 100067.

113.

Shahzad, M. F., Xu, S., An, X., & Javed, I. (2024). Assessing the impact of AI-chatbot service quality on user e-brand loyalty through chatbot user trust, experience and electronic word of mouth. Journal of Retailing and Consumer Services, 79, 103867.

114.

Shen, A. & Ball, D. (2009). Is personalization of services always a good thing? Exploring the role of technology-mediated personalization (TMP) in service relationships. Journal of Services Marketing, 23(2), 79-91.

115.

Shugan, S. & Xie, J. (2000). Advance pricing of services and other implications of separating purchase and consumption. Journal of Service Research, 2(3), 227-239.

116.

Smith, A., Jones, B., & Williams, C. (2022). The role of AI chatbots in enhancing customer experience in omnichannel retail environments. Journal of Business Research, 146, 45-56.

117.

Strahilevitz, M. & Myers, J. G. (1998). Donations to charity as purchase incentives: How well they work may depend on what you are trying to sell. Journal of Consumer Research, 24(4), 434-446.

118.

Suh, J. C. (2009). The role of consideration sets in brand choice: The moderating role of product characteristics. Psychology and Marketing, 26(6), 534-550.

119.

Tang, C., Rajaram, K., Alptekinoğlu, A., & Ou, J. (2004). The benefits of advance booking discount programs: Model and analysis. Management Science, 50(4), 465-478.

120.

Tanner, J. F. & Chonko, L. B. (1995). Trade show objectives, management, and staffing practices. Industrial Marketing Management, 24(4), 257-264.

121.

Thaichon, P., Quach, S., Barari, M., & Nguyen, M. (2023). Exploring the role of omnichannel retailing technologies: Future research directions. Australasian Marketing Journal, 32(2), 162-177.

122.

Thaler, R. (1980). Toward a positive theory of consumer choice. Journal of Economic Behavior and Organization, 1(1), 39-60.

123.

Thaler, R. (1985). Mental accounting and consumer choice. Marketing Science, 4(3), 199-214.

124.

Thomas, M., Desai, K. K., & Seenivasan, S. (2010). How credit card payments increase unhealthy food purchases: Visceral regulation of vices. Journal of Consumer Research, 38(1), 126-139.

125.

Tung, V. W. S., Chen, P. J., & Schuckert, M. (2017). Managing customer citizenship behaviour: The moderating roles of employee responsiveness and organizational reassurance. Tourism Management, 59(1), 23-35.

126.

Wang, S. & Park, C. (2023). What kind of empathy matters in AI customer service? The primacy of cognitive empathy in problem-solving contexts. International Journal of Information Management, 72, 102-118.

127.

Wang, Y., Fan, J., & Huang, M. (2022). The influence of perceived personalization on continuous use intention of AI chatbots in customer service. International Journal of Information Management, 65, 102503.

128.

Weisz, E. & Cikara, M. (2021). Strategic regulation of empathy. Trends in Cognitive Sciences, 25(3), 213-227.

129.

Wieseke, J., Geigenmüller, A., & Kraus, F. (2012). On the role of empathy in customer-employee interactions. Journal of Service Research, 15(3), 316-331.

130.

Wirth, N. (2018). Hello marketing, what can artificial intelligence help you with?. International Journal of Market Research, 60(5), 435-438.

131.

Xie, J. & Shugan, S. (2001). Electronic tickets, smart cards, and online prepayments: When and how to advance sell. Marketing Science, 20(3), 219-243.

132.

Xie, J. & Shugan, S. (2009). Advance selling theory. In Handbook of pricing research in marketing (Vithala R. Rao, Ed.). MA: Edward Elgar Publishing, 451-476.

133.

Xu, K., Chen, X., & Huang, L. (2022). Deep mind in social responses to technologies: A new approach to explaining the computers are social actors phenomena. Computer in Human Behavior, 134, 107321.

134.

Yang, Y., Luo, J., & Lan, T. (2022). An empirical assessment of a modified artificially intelligent device use acceptance model – From the task-oriented perspective. Frontier in Psychology, 13, 1912-1928.

135.

Yoon, N. & Lee, H. K. (2021). AI recommendation service acceptance: Assessing the effects of perceived empathy and need for cognition. Journal of Theoretical and Applied Electronic Commerce Research, 16(5), 1912-1928.

136.

Yu, J. & Cude, B. (2009). “Hello, Mrs. Sarah Jones! We recommend this product!” Consumers’ perceptions about personalized advertising: Comparisons across advertisement delivered via three different types of media. International Journal of Consumer Studies, 33(4), 503-514.

137.

Zhang, H., Liu, J., & Wang, T. (2024). The differential impact of AI chatbot cognitive and emotional empathy on retail customer experience. Journal of Retailing, 100(1), 75-91.

138.

Zhang, J. & Curley, S. P. (2018). Exploring explanation effects on consumers’ trust in online recommender agents. International Journal of Human-Computer Interaction, 34(5), 421-432.

139.

Zhao, L. & Yang, B. (2023). Measuring empathy in human-AI interactions: Challenges and methodological considerations. MIS Quarterly, 47(3), 1212-1239.

140.

Zhu, R. & Meyers-Levy, J. (2007). Exploring the cognitive mechanism that underlies regulatory focus effects. Journal of Consumer Research, 34(1), 89-96.