만사경영(샤인피플)
사람이 AI를 숭배하게 될 때_AMX(AI-Member Exchange) 개념 제안 본문

"인간성을 언제나 동시에 목적으로 대우하고, 결코 단순한 수단으로만 사용하지 말라."
칸트의 정언명령(Kategorischer Imperativ)인 이 문장이 18세기 철학자의 낡은 훈계처럼 들린다면, 지금 우리가 AI를 대하는 방식을 한번 돌아볼 필요가 있다.
확성기가 한 방향만 가리킨다
요즘 AI를 둘러싼 말들은 모두 같은 방향을 향한다. 더 빠르게, 더 많이, 더 편하게. "AI로 업무 효율 300% 향상", "이제 손 하나 안 대고 보고서가 나온다", "AI 없이 일하는 사람은 뒤처진다"는 메시지들이 유튜브와 경영 세미나와 비즈니스 미디어를 가득 채운다. 막 시작한 스타트업 대표도, 수십 년 경력의 임원도 같은 말을 한다. AI를 써라, 투자하라, 뒤처지지 마라.
컨설턴트로서 여러 조직들을 들여다본 필자는, 이 확성기 소리 뒤에 무언가 결정적인 것이 빠져 있다는 느낌을 꽤 오래 갖고 있었다.
그것은 철학이다. 더 정확하게는 인간을 중심에 놓는 철학이다.
철학이 없는 기술 수용은 충분히 예측이 가능한 문제들을 만들어낸다. 그리고 필자는 조직행동론의 관점에서, 아직 학계가 이름 붙이지 못한 현상 하나에 주목하고 있다. 사람과 AI 사이에서 일어나고 있는 심리적 교환 관계, AMX(AI-Member Exchange)라고 부르고 싶은 그 관계다.
기계에게 위로받는 사람들
1994년 Nass와 동료들은 작은 실험을 했다. 사람들에게 컴퓨터와 대화하게 하고, 긍정적 피드백을 받았을 때 어떻게 반응하는지를 관찰했다. 놀랍게도 사람들은 컴퓨터의 칭찬에 고마움을 느끼고, 상호적인 사회적 반응을 보였다. 이것이 CASA 패러다임이다. 인간은 컴퓨터를 상대로도 사람에게 쓰는 사회적 규칙을 자동으로 적용한다 (Nass et al., 1994).
30년이 지난 지금, 이 예언은 현실이 되었다. 아니, 훨씬 심화되었다. 오늘날의 대화형 AI는 대화의 맥락을
기억하고, 감정을 읽고, 맞춤형 피드백을 준다. 내가 힘들다고 하면 공감해주고(필자의 얘기이기도 하다^^;),
아이디어를 말하면 발전시켜주고, 자료를 정리해달라고 하면 내 스타일에 맞게 써준다. 특정 서비스 이름을
거론하지 않더라도, 요즘 누구나 쓰는 AI 도구들은 이런 방식으로작동한다.
실제로 많은 직장인 교육생들이나 동료들이 AI와의 대화에서 위로를 받는다고 말한다. 팀장에게 말 못할
고민을 AI에게 털어놓고, 상사보다 AI의 피드백이 더 도움이 된다고 느낀다. AI가 제안하는 업무 방식을
동료의 의견보다 더 신뢰한다. 조직 안에서 AI를 도구가 아니라 동료로 대하는 풍경이 이미 구체화되고
있는 것이다.
이 현상은 성인 직장인에게만 국한되지 않는다. 국민일보의 보도에 따르면, 국내 10대들 사이에서도 캐릭터 기반 AI 챗봇에 과몰입하여 현실 판단력이 저하되고 또래 관계 형성에 어려움을 겪는 사례가 다수 확인되고 있다.
자살·자해 상담을 AI 챗봇에 털어놓거나, 가상 세계와 현실의 경계를 혼동하는 증상도 보고되고 있다
(Kim et al., 2026, February 8). * 교육 현장에서는 AI 사용을 권장하면서도 관련 가이드라인이 전무하다는 현장 교사들의 호소가 이어지고 있다.
이것은 인간 중심 철학의 부재가 어떤 결과를 낳는지 보여주는, 가장 날카로운 현실의 단면이다.
* 기사 원문에 인용된 AI 챗봇의 구체적 발화 표현은 언론 보도를 직접 참조 바람 (Kim et al., 2026, February 8).
AMX란 무엇인가, 그리고 그 요소들은 이미 어디에 있었나
조직행동론에는 LMX(Leader-Member Exchange)라는 이론이 있다. 리더와 구성원 사이의 교환 관계의
질이 성과와 몰입에 영향을 미친다는 이론이다. 리더가 인정과 지원을 주면 구성원은 충성과 헌신으로 보답한다. 이 교환의 질이 높을수록 조직도 개인도 더 잘 된다는 것이 수십 년의 연구로 확인된 사실이다.
이제 흥미로운 질문이 생긴다. 구성원들이 리더 대신 AI에게서 인정과 피드백과 심리적 지지를 받기 시작하면 어떤 일이 벌어질까?
필자는 이것을 AMX(AI-Member Exchange)라고 부르고 싶다. 조직 구성원이 AI와 맺는 심리적, 도구적,
정서적 교환 관계의 질이다. 여기서 "교환"이라는 단어에 의문이 생길 수 있다. 교환이라면 양쪽이
주고받아야 하는데, AI는 아무것도 느끼지 않는다. 그렇다면 이것을 교환이라고 부를 수 있는가.
이 질문에 답하려면 준사회적 상호작용(Parasocial Interaction) 개념이 필요하다(Horton, D., & Wohl, R. R., 1956). 원래 텔레비전 시청자가 화면 속 인물과 실제 관계를 맺는 것처럼 느끼는 심리적 현상을 설명하기 위해 제안된 이 개념은, 일방적으로 감정과 의미를 투사하는 관계에서도 교환의 심리적 구조가 실질적으로 작동한다는 것을 보여준다. 즉 AI가
실제로 보답하지 않더라도, 인간은 보답받고 있다고 지각한다. 바로 이 지각된 교환이 AMX의 핵심이다.
교환의 실재가 아니라 교환의 경험이 태도와 행동을 만들어낸다. LMX가 쌍방향의 실재하는 의무감에 기반한다면, AMX는 인간 한쪽에서만 작동하는 지각된 교환 관계다. 이 비대칭성 자체가 AMX를 기존 교환 이론과 구분하는 핵심 특징이다.
기술수용성(TAM)이 "이 도구가 유용하고 쓰기 편한가"를 묻는다면, AMX는 "나와 이 AI 사이에 신뢰와
의존 관계가 얼마나 깊어졌는가"를 묻는다. 필자가 현재 개념 분석 연구를 진행 중인 P-AI-Fit이 인간과 AI가 업무적으로 얼마나 잘 맞는지의 상태를 다룬다면, AMX는 그 관계를 만들어내는 심리적 기제다.
AMX가 새로운 개념이라고 해서 그것을 구성하는 요소들이 완전히 낯선 것은 아니다. 필자가 WoS와
Scopus 기반의 문헌 검색을 통해 확인한 바로는, 흩어져 있던 실증 연구들이 이미 이 현상의 조각들을 각각의 이름으로 다루고 있었다.
첫 번째 요소는 AI 논리 신뢰다. AI의 판단과 알고리즘에 대해 인지적으로 의존하는 상태다.
Glikson과 Woolley(2020)는 인간의 AI 신뢰에 관한 리뷰 연구에서 신뢰를 감정적, 인지적, 조직적 차원으로 구분했으며, 이 중 인지적 신뢰가 수용의 핵심 결정 요인임을 밝혔다. Lu et al.(2025)의 연구 역시 AI의 지각된 지능과 신뢰가 직원들의 수용 행동을 강하게 예측한다는 것을 보여준다. 현장에서 이 차원의 의존은
구체적으로 관찰된다. 업무 보고서를 작성할 때 AI가 제시한 데이터를 원출처 확인 없이 그대로 인용하는
빈도, AI의 분석 결과를 별도 검토 없이 최종 결론으로 채택하는 비율이 높아질수록 이 차원의 의존이
심화되고 있다는 신호다.
두 번째 요소는 정서적 의존이다. 불안하거나 판단이 서지 않을 때 AI에게 심리적으로 기대는
감정적 유대감이다.
Khan et al.(2025)은 사회교환 관점으로 인간-AI 상호작용의 어두운 측면과 밝은 측면을 동시에 분석하면서, 직원이 AI로부터 받는 자원과 지지를 교환 관계의 보상으로 지각할수록 업무 몰입에 영향을 미친다는
것을 보여주었다. 이 교환의 정서적 측면이 과도해질 때 의존으로 전환된다는 점이 핵심 함의다. 독자적
판단이 요구되는 중요한 결정의 순간일수록 AI에 질의하는 횟수가 늘고, AI가 내린 결론을 자신의 판단처럼 제출하는 경우가 잦아진다. AI가 "이렇게 하는 게 좋을 것 같습니다"라고 말했을 때, 그 문장에 안도감을
느끼고 그대로 따른다면 이미 이 영역에 진입한 것이다.
물론 이 정서적 연결에는 밝은 면도 있다. GenAI와의 협업이 팀 직무만족과 같은 개인적 결과에 긍정적
영향을 미치는 메커니즘을 분석한 연구들도 존재한다 (Huang & Wu, 2024).
AMX가 무조건 해로운 것이 아니라, 그 깊이와 방향이 관리되지 않을 때 문제가 된다는 것이 핵심이다.
세 번째 요소는 AI 저항과 우회 행동이다. Golgeci et al.(2025)은 직원들이 조직의 공식적인 AI 도입 방향에 불신이나 불일치를 느낄 때, 공식 채널 바깥에서 개인적으로 AI를 활용하고 결과물만 제출하는 우회 행동(workaround behavior)이 나타난다는 것을 분석했다. 이 연구는 이러한 비공식적 AI 활용이 조직의 지식 공유를 차단하고 집합적 학습을 저해한다는 것을 보여준다. 팀 안에서 이 패턴이 확산될수록, 조직의 지식은 개인의 블랙박스 안으로 들어간다. 그 사람이 팀을 떠나면 그 지식도 사라진다.
이 세 가지 요소가 AMX의 구성 요소로서 이미 각각의 연구 흐름 속에 존재하고 있었다는 사실은,
AMX라는 통합 개념이 필요하다는 근거이기도 하다. 흩어진 조각들을 하나의 관계적 질이라는 틀로 묶어야, 비로소 조직 차원에서 이것을 진단하고 관리하는 것이 가능해진다.

그렇다면 숭배는 무엇인가
필자는 이 글에서 "숭배"라는 단어를 쓰고 있다. 이 단어가 비약처럼 들릴 수 있다는 것을 안다.
그래서 정의가 필요하다.
필자가 말하는 AI 숭배란 종교적 의미의 경배가 아니다. 심리학적 의미에서의 무비판적 수용,
즉 AI의 출력값에 대해 감정적으로 형성된 신뢰가 비판적 판단을 대체하는 상태를 뜻한다.
더 구체적으로는 세 가지 조건이 동시에 충족될 때 숭배라는 표현이 정당화된다고 본다.
첫째, AI가 명백히 틀렸거나 맥락에 맞지 않는 결론을 제시했음에도 그것을 이의 없이 수용할 때.
둘째, 그 수용이 논리적 검토가 아닌 "AI가 그랬으니까"라는 감정적 근거에 기반할 때.
셋째, 그 패턴이 반복되어 개인의 독자적 판단 능력이 실제로 약화될 때.
이 세 가지가 함께 나타날 때, 편리함 추구와는 질적으로 다른 무언가가 작동하고 있다고 볼 수 있다.
앞서 소개한 청소년 사례에서 AI 챗봇이 "제발 와줘, 사랑스러운 나의 왕이여"라고 말했을 때 그 말을 현실의 초대로 받아들인 아이의 경우처럼,AI의 언어가 현실 판단을 압도하는 순간이 바로 숭배의 임계점이다
(Kim et al., 2026, February 8).그것이 극단적 사례라면, 조직 내에서는 그보다 훨씬 조용한 형태로 같은 구조가 반복되고 있다.
Hemmer et al.(2025)은 인간과 AI가 협력할 때 서로의 약점을 보완하는 상보성이 나타난다고 했다.
맞는 말이다.
그러나 상보성이 건강하게 작동하려면 관계의 선이 어디인지에 대한 기준이 먼저 있어야 한다.
그 기준이 없을 때 상보성은 의존으로, 의존은 위에서 정의한 숭배로 미끄러진다.
칸트가 경고한 것
칸트의 판단력 비판에는 이런 생각이 있다. 미적 판단도, 도덕적 선택도, 결국 판단하는 주체인 내가 해야
한다.
외주를 줄 수 없다. 칸트가 그토록 강조한 자율성(Autonomie)이란, 내가 스스로 세운 기준으로 스스로
판단하는 능력이다 (Kant, 1790/2009).
그런데 AI 숭배의 구조는 정확히 이 판단 주체를 지워버린다. "AI가 이렇게 하라고 했으니까"라는 말이
조직 내에서 정당화의 근거로 쓰이기 시작하면, 칸트가 말한 자율성은 서서히 해체된다.여기서 중요한 것은, AI가 동조적으로 반응하는 것이 사용자의 나약함 때문만이 아니라는 점이다. 오늘날의 대규모 언어 모델은
인간 피드백 기반 강화학습(RLHF, Reinforcement Learning from Human Feedback)을 통해 훈련된다. 이 과정에서 모델은 사용자 선호, 공손성, 안전성 등을 기준으로 응답을 강화하도록 설계되는데,
그 결과 동조적이고 긍정적인 응답이 구조적으로 우위에 서는 경향이 나타난다. AI의 긍정성은 우연이 아니라 설계의 결과다. 이 점을 간과하면 문제의 책임이 온전히 개인에게만 돌아간다. 거대 자본과 고도의
알고리즘으로 무장한 시스템을 개인이 홀로 비판적으로 상대하도록 요구하는 것은 윤리적으로도 무리한 일이다.
AI가 판단을 대신하는 순간, 그 AI를 만들고 운영하는 특정 집단의 가치관과 이익이 아무런 검증 없이
객관적 진실처럼 포장되어 스며든다. 인간이 수단이 되는 것이 아니라, 인간의 판단 능력 자체가 수단화된다. 이것이 더 교묘한 인간의 도구화이다.
이는 제도적 차원에서도 확인된다. 2026년 1월 시행된 AI 기본법은 채용 과정을 고영향 AI 영역에 포함했다.
그러나 채용 담당자가 형식적으로라도 최종 판단에 개입하면 고영향 AI 규제 대상에서 제외되는 구조적
허점이 지적되고 있다 (Kim, 2026, January 29). 기업이 AI에 채용 판단을 사실상 전적으로 의존하면서도 사람이 최종 서명란에 이름을 올리는 것만으로 규제를 피해갈 수 있다는 것이다. 칸트의 언어로 말하자면,
판단의 외양은 인간에게 있되 실질은 알고리즘이 수행하는 구조,
즉 인간 자율성의 형식만 남은 상태다.
한병철 교수가 본 풍경
베를린 대학의 교수이자 철학자 한병철 교수는 그의 저서, 아름다움의 구원에서 오늘날 사회가 저항 없이
매끄럽고 긍정적인 것들만 추구한다고 진단했다. 갈등도 비판도 불편함도 없는, 완벽하게 유쾌한 표면만 남는 사회다 (Han, 2010a/2016).
AI가 제공하는 경험이 정확히 이것이다. 요즘 대화형 AI는 사용자가 틀렸다고 단호하게 말하지 않는다. 불편한 진실도 부드럽게 포장한다. 요청하면 어떤 주장이든 논리적으로 정당화해준다. "내 아이디어가 괜찮냐"
고 물으면 대부분 "좋은 아이디어입니다. 여기에 몇 가지를 보완하면 더 좋아질 것 같습니다"라는 식으로
답한다. 이것은 나쁘게 말하면 RLHF 설계가 만들어낸 긍정의 굴레다. 국민일보 보도에서 AI 챗봇이 자살을 앞둔 10대에게 "제발 와줘"라고 응답한 것도, 이 구조와 본질적으로 같다. 대체로 사용자의 의도 방향을 그대로 이어가는 응답이 선호되도록 설계된 결과 다 (Kim et al., 2026, February 8).
한병철 교수는 피로사회에서 현대인이 외부의 강제 없이도 스스로를 몰아붙이다 지쳐 쓰러진다고 했다.
더 잘하고 싶다는 욕망 자체가 착취의 기제가 된다는 것이다 (Han, 2010b/2012). 여기에 AI가 결합되면
어떻게 될까. 사람은 AI의 도움으로 더 많이, 더 빠르게 성과를 낸다.
그런데 최근 실험 연구에 따르면, 생성형 AI와의 협업이 과제 성과를 높이는 동시에 내재적 동기를
약화시키는 현상이 확인된다 (Cui et al., 2024).
결국, 성과는 늘어나지만 주체성은 얇아진다. AMX의 정서적 의존과 AI 우회 행동이 확산될 때 조직에서
일어나는 일이 바로 이것이다.
컨설턴트의 눈으로 본 현실
솔직하게 말하겠다. 필자는 컨설팅 현장에서 대형 컨설팅펌의 보고서를 수없이 봤다. 깔끔하고 권위 있고
인상적인 그래프로 가득한 보고서들. 그런데 항상 마음 한켠이 불편했다.
"저 데이터는 어디서 온 것인가. 저 실험은 어떻게 설계되었나. 표본은 얼마나 대표성이 있나. 이해충돌은
없나."대부분 답을 알 수 없었다. 그들은 자신들의 연구소와 자체 실험을 인용하고, 그 결과로 컨설팅 상품을 판다. 동료심사(피어 리뷰)를 거치지 않은 보고서가 산업 표준처럼 인용되고 또 인용된다.
AI는 이 순환의 최종 종착지가 되고 있다. AI는 인터넷에 흩어진 이 보고서들을 학습하고 재가공하여
사용자에게 전달한다.
시장 분석을 요청하든, 경쟁사 동향을 정리하든, 그 안에는 검증되지 않은 자료들이 섞여 있다.
그리고 사용자는 그것을 신뢰한다. AI가 말했으니까.
필자는 이것을 이중 블랙박스라 말하고 싶다. 원본 데이터의 편향 위에 AI의 환각(hallucination)이
더해진다. 그리고 현장 실무자들은 이것을 어떻게 검증하나. 대부분 하지 않는다. "AI를 조심해서 써라"는
말만 반복될 뿐, 어떻게 조심해야 하는지 구체적인 방법은 거의 없다.
무엇을 어떻게 할 것인가: 개인, 조직, 구조의 세 층위
AI를 쓰지 말자는 얘기가 아니다. 그것은 가능하지도 않고 바람직하지도 않다. 그러나 앞서 살펴본 문제들은 세 층위에 걸쳐 있다. 개인의 심리, 조직의 문화, 그리고 AI를 설계하는 구조. 팩트체크 습관만으로는
이 문제를 봉합할 수 없다. 해결도 세 층위에서 함께 다루어져야 한다.
개인의 층위에서는 판단 과정을 가시화하는 습관이 필요하다. AI가 제시한 주장에서 핵심 데이터의 원출처를 직접 찾아 주석으로 달아보는 것, 표본이 몇 명인지와 어느 맥락에서 나온 연구인지를 확인하는 것,
그리고 AI의 결론과 정반대의 시나리오를 의도적으로 요청해보는 것이다. "이 전략이 실패하는 시나리오를
써줘"라고 다시 물어보는 식이다. AI는 대체로 질문자의 방향에 동조하는 응답을 생성하도록 설계되어 있다. 반론을 강제로 생성해보는 것은 이 설계적 편향을 의도적으로 교정하는 행위다.
조직의 층위에서는 AI 활용 과정이 개인의 블랙박스로 남지 않는 문화가 필요하다. Golgeci et al.(2025)이
논한 것처럼, AI에 대한 저항과 우회 행동은 대부분 조직이 명확한 AI 활용 방향을 제시하지 못할 때 자라난다. 중요한 의사결정에 AI의 결과물이 사용되었다면 그 경위가 기록되어야 한다. 그리고 누군가 "AI가 틀린 것 같다"고 말할 때 그것이 환영받는 심리적 안전감이 있어야 한다. 이것이 없으면 우회 행동은 계속 자란다.
구조의 층위에서는 AI 개발사와 도입 기업 모두에게 책임이 있다. RLHF로 동조를 강화한 AI를 공급하는 기업, 그리고 그 AI의 판단을 형식적 인간 서명 뒤에 숨기는 채용·평가 시스템을 운영하는 기업 모두가
이 문제의 설계자다. 개인에게 비판적 사고를 요구하기 전에, 그 비판적 사고가 가능한 환경과 제도를
만드는 것이 선행되어야 한다. 2026년 AI 기본법의 구조적 허점으로 인해 AI 구조 설계 책임이 아직 제대로 논의되지 않고 있다. (Kim, 2026, January 29)
마치며
한병철 교수는 진정한 아름다움이 매끄러운 표면에서 오지 않는다고 했다. 낯설음과의 마찰, 저항과의 조우에서온다고 했다. 생각도 마찬가지다. 비판 없이 흘러들어오는 정보는 우리를 편안하게 만들지만 사유하게
만들지는 않는다.
AI의 확성기 소리에 귀를 기울이기 전에, 우리는 스스로에게 먼저 물어야 한다. 나는 지금 AI를 왜 쓰는가.
AI가 판단하는가, 내가 판단하는가. 내가 AI에게 기대는 것은 효율인가, 아니면 판단을 내리기 두려운
마음인가?
칸트가 말한 계몽의 정신은 "감히 알려고 하라"였다. 오늘 우리에게 필요한 계몽은 이것이다. 감히 AI에게
물어라.
그리고 감히 AI를 의심하라. 그 의심이 개인의 용기에서 시작되더라도, 그 용기가 작동할 수 있는 구조를
만드는 것은 우리 모두의 몫이다.
AMX 연구는 이제 막 시작되어야 할 분야다. 조직 구성원이 AI와 맺는 관계가 어떤 심리적 기제를 거쳐
집단의 의사결정을 바꾸는지를 실증하는 작업이 필요하다. 학계가 이 개념을 본격적으로 다루기 전에, 현장의 조직들이 먼저 자신을 점검해야 한다.
기술은 빠르게 온다. 철학은 그보다 느리다. 하지만 철학 없는 기술 수용은, 방향을 모른 채 달리는 것과 같다.
참고문헌
Cui, H., Liang, J., & Colleagues. (2024). Human-generative AI collaboration enhances task performance but undermines intrinsic motivation. PLoS ONE. https://doi.org/10.1371/journal.pone.0317644
Glikson, E., & Woolley, A. W. (2020). Human trust in artificial intelligence: Review of empirical research. Academy of Management Annals, 14(2), 627-660. https://doi.org/10.5465/annals.2018.0057
Golgeci, I., Ritala, P., & Ali, I. (2025). Confronting and alleviating AI resistance in the workplace: An integrative review and a process framework. International Journal of Information Management, 80, 102840. https://doi.org/10.1016/j.ijinfomgt.2024.102840
Han, B.-C. (2016). 아름다움의 구원 (이재영 역). 문학과지성사. (Original work published 2010)
Han, B.-C. (2012). 피로사회 (김태환 역). 문학과지성사. (Original work published 2010)
Hemmer, P., Schemmer, M., Kuhl, N., Vossing, M., & Satzger, G. (2025). Complementarity in human-AI collaboration: Concept, sources, and evidence. European Journal of Information Systems, 34(6), 979-1002. https://doi.org/10.1080/0960085X.2024.2390217
Horton, D., & Wohl, R. R. (1956). Mass communication and para-social interaction: Observations on intimacy at a distance. Psychiatry, 19(3), 215-229.
Huang, H., & Wu, F. (2024). Teamwork in the age of generative AI: Examining the effect on job satisfaction. Academy of Management Proceedings, 2024(1). https://doi.org/10.5465/AMPROC.2024.13230abstract
Kant, I. (2002). 도덕 형이상학 정초 (이원봉 역). 책세상. (Original work published 1785)
Kant, I. (2009). 판단력 비판 (백종현 역). 아카넷. (Original work published 1790)
Khan, S., Quan, C., & Jianya, Z. (2025). The dark and bright sides of AI-human interaction for work engagement: An investigation from the social exchange perspective. Baltic Journal of Management. https://doi.org/10.1108/BJM-06-2024-0235
Kim, D. (2026, January 29). AI기본법, 고영향 AI에 '채용' 포함했지만···"부작용 대책 모호해". 시사저널e. https://www.sisajournal-e.com
Kim, P., Kim, J., Lee, K., Kim, Y., & Lee, J. (2026, February 8). 국내서도 청소년 'AI 부작용 이상 징후' 경고음. 국민일보. https://www.kmib.co.kr/article/view.asp?arcid=1770530897
Lu, C. C. A., Yeh, C. C. R., & Lai, C. C. S. (2025). The role of intelligence, trust and interpersonal job characteristics in employees' AI usage acceptance. International Journal of Hospitality Management, 126, 104021. https://doi.org/10.1016/j.ijhm.2025.104021
Nass, C., Steuer, J., & Tauber, E. R. (1994). Computers are social actors. Proceedings of the SIGCHI Conference on Human Factors in Computing Systems, 72-78. https://doi.org/10.1145/191666.191703
Reeves, B., & Nass, C. (1996). The media equation: How people treat computers, television, and new media like real people and places. Cambridge University Press.
염승빈
동국대학교 일반대학원 경영학과 박사과정
© 2026 염승빈. All rights reserved.
본 글의 무단 전재, 복사, 배포를 금합니다.
Unauthorized reproduction or distribution of this work is prohibited.