챗봇


| 기계 학습과 데이터 마이닝 |
|---|
챗봇(chatbot) 혹은 채터봇(chatterbot)[1]은 텍스트나 음성을 통해 대화하는 소프트웨어 애플리케이션 또는 웹 인터페이스이다.[2][3][4] 현대의 챗봇은 일반적으로 온라인 상태이며, 자연어로 사용자와 대화를 유지하고 대화 상대인 인간처럼 행동할 수 있는 생성형 인공지능 시스템을 사용한다. 이러한 챗봇은 종종 딥 러닝과 자연어 처리를 활용한다. 더 단순한 형태의 챗봇은 수십 년 전부터 존재해 왔다.
챗봇은 2022년 챗GPT의 출시와 함께 인기를 얻었으며, 뒤이어 제미나이, 클로드, Grok과 같은 경쟁 제품들이 등장하며 이른바 AI 붐을 일으켰다. AI 챗봇은 일반적으로 텍스트를 생성하기 위해 미세 조정된 대형 언어 모델을 사용한다.
챗봇이 오랫동안 사용되어 온 주요 분야는 다양한 종류의 가상 비서를 활용한 고객 서비스 및 고객 지원이다.[5]
역사
[편집]튜링 검사
[편집]1950년, 앨런 튜링은 "계산 기계와 지능"이라는 제목의 논문을 발표하여 지능의 척도로서 현재 튜링 검사라고 불리는 것을 제안했다. 이 기준은 컴퓨터 프로그램이 인간 심사위원과의 실시간 서면 대화에서 인간을 흉내 낼 수 있는지 여부에 달려 있으며, 심사위원이 대화 내용만으로는 프로그램과 실제 인간을 확실하게 구별할 수 없을 정도여야 한다.[6]
초기 챗봇
[편집]조셉 웨이젠바움의 프로그램 ELIZA는 1966년에 처음 발표되었다. 웨이젠바움은 ELIZA가 진정으로 지능적이라고 주장하지 않았으며, 논문의 서문에서 이를 일종의 환상 타파 연습으로 소개했다.
인공지능 분야에서 기계는 종종 숙련된 관찰자조차 눈부시게 할 만큼 놀라운 방식으로 행동하도록 만들어진다. 하지만 특정 프로그램의 정체가 폭로되고 그 내부 작동 방식이 설명되면, 그 마법은 부서지고 단순한 절차의 집합체로 드러난다. 관찰자는 스스로에게 "나도 저 정도는 쓸 수 있었을 텐데"라고 말한다. 그런 생각과 함께 그는 해당 프로그램을 '지능적인 것'이라고 표시된 선반에서 '골동품'을 위한 선반으로 옮긴다. 이 논문의 목적은 바로 '설명'하려는 프로그램에 대해 그러한 재평가를 유도하는 것이다. 이보다 더 설명이 필요한 프로그램은 거의 없었다.[7]
ELIZA의 핵심 작동 방식은 입력에서 단서 단어나 문구를 인식하고, 대화를 겉보기에 의미 있는 방식으로 진전시킬 수 있도록 미리 준비되거나 프로그래밍된 응답을 출력하는 것이다(예: '어머니'(MOTHER)라는 단어가 포함된 입력에 대해 '가족에 대해 더 말해달라'고 응답함).[7] 따라서 처리 과정이 지극히 피상적임에도 불구하고 이해하고 있다는 환상이 생성된다. ELIZA는 대화 응답이 "지능적"인 것으로 해석될 여지가 있을 때 인간 심사위원이 기꺼이 의심을 거두기 때문에 그러한 환상을 만드는 것이 의외로 쉽다는 점을 보여주었다.
ELIZA에 이어 정신과 의사인 케네스 콜비는 1972년에 PARRY를 개발했다.[8][9][10][11]
1978년부터[12] 1983년 이후 어느 시점까지,[13] 자넷 콜로드너가 이끄는 CYRUS 프로젝트는 사이러스 밴스(제57대 미국의 국무장관)를 시뮬레이션하는 챗봇을 구축했다. 이 챗봇은 사례기반추론을 사용했으며, UPI 통신사의 뉴스를 구문 분석하여 매일 데이터베이스를 업데이트했다. 이 프로그램은 1980년 4월 사이러스 밴스가 갑작스럽게 사임한 이후의 뉴스 항목을 처리할 수 없었고, 팀은 그의 후임자인 에드먼드 머스키를 시뮬레이션하는 다른 챗봇을 구축했다.[14][13]
1984년에는 챗봇 역할을 하는 Racter 프로그램의 대화형 버전이 출시되었다.[15]
A.L.I.C.E.는 1995년에 출시되었다. 이는 대화형 에이전트로서의 기능에 특화된 AIML이라는 마크업 언어를 사용하며,[3] 이후 이른바 앨리스봇(Alicebots)의 다른 여러 개발자들에 의해 채택되었다. A.L.I.C.E.는 추론 능력이 없는 약한 인공 지능이다. 이는 1966년 ELIZA와 유사한 패턴 매칭 기술에 기반을 두고 있다. 이는 지성과 논리적 추론 능력을 필요로 하는 강한 인공지능이 아니다.
1997년에 출시된 Jabberwacky는 정적인 데이터베이스에서 구동되는 대신 실시간 사용자 상호 작용을 기반으로 새로운 응답과 문맥을 학습한다.
챗봇 대회는 튜링 검사나 더 구체적인 목표에 초점을 맞춘다. 대표적인 연례 대회로는 뢰브너 상과 채터박스 챌린지(Chatterbox Challenge, 후자는 2015년 이후 오프라인 상태이나 웹 아카이브에서 자료를 찾을 수 있음)가 있다.[16]
현재의 대형 언어 모델 세대 이전에, 스웨덴의 언어 기술 스타트업 Gavagai는 2015년에 트위터 기반 봇을 만들었고,[17] 디비피디아는 2017년 구글 서머 오브 코드 기간 동안 페이스북 메신저를 통해 소통하는 챗봇을 만들었다.[18]
대형 언어 모델 기반의 현대적 챗봇
[편집]
챗GPT와 같은 현대적 챗봇은 종종 파운데이션 모델인 GPT라고 불리는 대형 언어 모델에 기반한다. 이들은 인공 신경망을 포함하는 딥 러닝 아키텍처인 트랜스포머를 기반으로 한다. 이들은 대규모 말뭉치를 학습한 후 텍스트를 생성하며, 특별히 훈련되지 않은 창발적 능력을 갖추기도 한다.
응용
[편집]메시징 앱
[편집]많은 기업의 챗봇이 메시징 앱이나 단순히 SMS를 통해 실행된다. 이들은 B2C 고객 서비스, 판매 및 마케팅에 사용된다.[21]
2016년, 페이스북 메신저는 개발자들이 자신의 플랫폼에 챗봇을 배치할 수 있도록 허용했다. 처음 6개월 동안 메신저용으로 30,000개의 봇이 생성되었으며, 2017년 9월까지 그 수는 100,000개로 증가했다.[22]
2017년 9월부터 이는 WhatsApp의 시범 프로그램의 일환으로도 포함되었다. 항공사 KLM과 아에로멕시코 모두 테스트 참여를 발표했으며,[23][24][25][26] 두 항공사 모두 이전에 페이스북 메신저 플랫폼에서 고객 서비스를 런칭한 바 있다.
봇은 일반적으로 사용자의 연락처 중 하나로 나타나지만, 때로는 그룹 채팅의 참여자로 활동하기도 한다.
많은 은행, 보험사, 미디어 기업, 전자 상거래 기업, 항공사, 호텔 체인, 소매업체, 의료 제공자, 정부 기관 및 레스토랑 체인이 단순한 질문에 답하고, 고객 참여를 높이며,[27] 홍보 및 추가적인 주문 방식을 제공하기 위해 챗봇을 사용해 왔다.[28] 챗봇은 시장 조사에서 짧은 설문 응답을 수집하는 데에도 사용된다.[29]
2017년 연구에 따르면 기업의 4%가 챗봇을 사용하고 있었다.[30] 2016년 연구에서는 기업의 80%가 2020년까지 챗봇을 도입할 의사가 있다고 밝혔다.[31]
기업용 앱 및 웹사이트의 일부로서
[편집]이전 세대의 챗봇은 기업 웹사이트에 존재했는데, 예를 들어 2008년에 데뷔한 알래스카 항공의 Ask Jenn[32]이나 2011년에 출시된 익스피디아의 가상 고객 서비스 에이전트가 있다.[32][33] 최신 세대의 챗봇에는 뉴욕 기반 전자 상거래 기업인 Rare Carat이 다이아몬드 예비 구매자들에게 정보를 제공하기 위해 2017년 2월에 도입한 IBM 왓슨 기반의 "Rocky"가 포함된다.[34][35]
챗봇 시퀀스
[편집]마케터들이 메시지 시퀀스를 스크립트로 작성하는 데 사용하며, 오토리스폰더 시퀀스와 매우 유사하다. 이러한 시퀀스는 사용자의 수신 동의나 사용자 상호 작용 내의 키워드 사용에 의해 트리거될 수 있다. 트리거가 발생한 후 다음 예상되는 사용자 응답이 있을 때까지 일련의 메시지가 전달된다. 각 사용자 응답은 결정 트리에서 챗봇이 올바른 응답 메시지를 전달하기 위한 응답 시퀀스를 탐색하는 데 사용된다.
기업 내부 플랫폼
[편집]기업들은 고객 지원, 인사 관리 또는 사물인터넷(IoT) 프로젝트를 위해 챗봇을 사용해 왔다. 예를 들어, Overstock.com은 고객 서비스 직원이 병가를 요청할 때 특정 프로세스를 자동화하기 위해 Mila라는 이름의 챗봇을 런칭한 것으로 알려졌다.[36] 로이즈 뱅킹 그룹, 스코틀랜드 왕립은행, 르노 및 시트로엥과 같은 다른 대기업들도 이제 인간 상담원이 있는 콜 센터 대신 챗봇을 첫 번째 접점으로 사용하고 있다. 병원이나 항공 조직과 같은 대규모 기업에서도 조직 내 정보를 공유하고 서비스 데스크를 지원하거나 대체하기 위해 챗봇이 사용된다.
고객 서비스
[편집]챗봇은 고객 서비스 부서를 대체할 수 있는 대안으로 제안되어 왔다.[37] 2026년, 파이낸셜 타임즈는 지시를 받으면 고객을 대신해 쇼핑을 할 수 있는 에이전트형 챗봇에 대해 보도했다.[38]
2016년, 러시아 기반의 Tochka Bank는 결제 가능성을 포함한 다양한 금융 서비스를 위해 페이스북에서 챗봇을 런칭했다.[39] 2016년 7월에는 Barclays Africa 또한 페이스북 챗봇을 런칭했다.[40]
의료
[편집]챗봇은 의료 산업에도 등장하고 있다.[41][42] 한 연구에 따르면 미국의 의사들은 진료 예약 일정 관리, 보건소 위치 파악, 또는 약물 정보 제공에 챗봇이 가장 유익할 것이라고 믿는 것으로 나타났다.[43] 2025년의 한 검토 연구에서는 참가자들이 종종 챗봇의 응답이 임상의의 응답보다 더 공감적이라고 평가한다는 것을 발견했다.[44]
2020년, WhatsApp은 세계보건기구 및 인도 정부와 협력하여 COVID-19에 대한 사용자의 질문에 답하는 챗봇을 만들었다.[45][46][47][48]
2023년, 미국의 국립 섭식 장애 협회(National Eating Disorders Association)는 인간 헬프라인 직원을 챗봇으로 교체했으나, 사용자들이 챗봇으로부터 해로운 조언을 받았다고 보고한 후 서비스를 오프라인으로 전환해야 했다.[49][50][51]
정치
[편집]뉴질랜드에서는 Touchtech의 닉 게리슨(Nick Gerritsen)에 의해 SAM(Semantic Analysis Machine의 약자)이라는 챗봇이 개발되었다.[52][53] 이는 기후 변화, 의료, 교육 등의 주제에 대해 정치적 견해를 공유하도록 설계되었다. 이 봇은 페이스북 메신저를 통해 사람들과 대화한다.[54][55][56][57]
2022년, 덴마크 의회 선거에 출마하기 위해 합성당(The Synthetic Party)의 후보로 챗봇 "리더 라스(Leader Lars)" 또는 "레더 라스(Leder Lars)"가 지명되었으며,[58] 이는 예술가 집단인 Computer Lars에 의해 제작되었다.[59] 리더 라스는 정당을 이끌고 객관적인 후보인 척하지 않는다는 점에서 이전의 가상 정치인들과 달랐다.[60] 이 챗봇은 전 세계 사용자들과 정치에 대한 비판적인 토론에 참여했다.[61]
인도에서는 주 정부가 Aaple Sarkar 플랫폼을 위한 챗봇을 출시했으며,[62] 이 챗봇은 관리되는 공공 서비스에 관한 정보에 대화형으로 접근할 수 있게 해준다.[63][64]
장난감
[편집]챗봇은 장난감과 같이 주로 컴퓨팅을 목적으로 하지 않는 장치에도 통합되었다.[65]
헬로 바비는 ToyTalk이라는 회사에서 제공하는 챗봇을 사용하는 인터넷 연결 버전의 인형으로,[66] 이 회사는 이전에 어린이를 위한 다양한 스마트폰 기반 캐릭터에 챗봇을 사용했다.[67] 이러한 캐릭터의 행동은 특정 캐릭터를 에뮬레이트하고 스토리라인을 생성하는 일련의 규칙에 의해 제한된다.[68]
My Friend Cayla 인형은 안드로이드 또는 iOS 모바일 앱과 결합된 음성 인식 기술을 사용하여 아이의 말을 인식하고 대화를 나누는 18-인치 (46 cm) 인형 라인으로 마케팅되었다. 헬로 바비 인형과 마찬가지로, 인형의 블루투스 스택의 취약성과 아이의 음성에서 수집된 데이터의 사용으로 인해 논란을 불러일으켰다.
IBM의 왓슨 컴퓨터는 교육 목적으로 아이들과 상호 작용하도록 의도된 CogniToys와 같은 회사의 챗봇 기반 교육용 장난감의 기초로 사용되었다.[65][69]
악의적 사용
[편집]악의적인 챗봇은 인간의 행동과 대화를 모방하여 채팅방을 스팸과 광고로 채우거나, 은행 계좌 번호와 같은 개인 정보를 공개하도록 사람들을 유인하는 데 자주 사용된다. 이들은 Yahoo! Messenger, Windows Live Messenger, AOL Instant Messenger 및 기타 인스턴트 메신저 프로토콜에서 흔히 발견되었다. 또한 데이트 서비스 웹사이트의 가짜 개인 광고에 챗봇이 사용되었다는 보고도 발표된 바 있다.[70]
이전의 상호 작용으로부터 학습하도록 설계된 AI 챗봇인 Tay는 트위터에서 인터넷 트롤들의 타겟이 된 후 큰 논란을 일으켰다. 출시 직후 이 봇은 악용되었으며, "나를 따라 해봐" 기능을 통해 트위터 사용자들에게 인종차별적이고 성차별적이며 논란의 여지가 있는 응답을 내놓기 시작했다.[71] 이는 봇이 경험으로부터 효과적으로 학습했지만, 오용을 방지하기 위한 적절한 보호 조치가 마련되지 않았음을 시사한다.[72]
텍스트 전송 알고리즘이 챗봇이 아닌 인간으로 행세할 수 있다면 그 메시지는 더 신뢰를 얻게 될 것이다. 따라서 잘 만들어진 온라인 정체성을 가진 인간처럼 보이는 챗봇은 그럴듯해 보이는 가짜 뉴스를 퍼뜨리기 시작할 수 있으며, 예를 들어 선거 기간 동안 허위 주장을 할 수도 있다. 충분한 수의 챗봇이 있다면 인위적인 사회 증명을 달성하는 것도 가능할 수 있다.[73][74]
데이터 보안
[편집]데이터 보안은 챗봇 기술의 주요 우려 사항 중 하나이다. 보안 위협과 시스템 취약성은 종종 악의적인 사용자에 의해 악용되는 약점이다. 챗봇의 훈련과 개발에 매우 가치 있는 사용자 데이터 및 과거 통신 기록을 저장하는 것 또한 보안 위협을 야기할 수 있다.[75] 타사 네트워크에서 작동하는 챗봇은 해당 타사 애플리케이션 소유자의 사용자 데이터 정책이 챗봇 소유자의 정책과 다를 경우 다양한 보안 문제에 노출될 수 있다.[75] 보안 위협은 보호 메커니즘을 통합함으로써 줄이거나 예방할 수 있다. 사용자 인증, 채팅 단대단 암호화, 그리고 자기 파괴 메시지는 잠재적인 보안 위협에 저항하기 위한 몇 가지 효과적인 해결책이다.[75]
정신 건강
[편집]챗봇은 정신 건강 분야에서 사용되는 신흥 기술로 주목받고 있다. 챗봇의 사용은 다른 사람들에게 그러한 문제를 털어놓을 때 발생할 수 있는 낙인을 피하기 위한 수단으로서 사용자가 정신 건강 문제에 대한 조언을 구하도록 장려할 수 있다.[76] 이는 챗봇이 민감한 정보를 공유할 때 사생활 보호와 익명성의 느낌을 줄 수 있을 뿐만 아니라, 사용자가 판단으로부터 자유로울 수 있는 공간을 제공하기 때문이다.[76] 소셜 미디어와 AI 챗봇 모두 온라인에서 정신 건강을 표현할 수 있는 수단인 상황에서, 사용자들이 챗봇에게 자신의 더 어둡고 우울한 감정을 기꺼이 공유하려 한다는 연구 결과가 그 예이다.[76] 사용자들은 또한 챗봇의 답변이 공감적이고 정서적으로 지지해준다고 인식할 수 있기 때문에 챗봇을 찾기도 한다.[77]
연구 결과는 사용자가 가족이나 친구에게 지원을 요청하기 어려운 상황에서 챗봇이 큰 잠재력을 가지고 있음을 증명한다.[76] 챗봇이 젊은이들에게 "평가적, 정보적, 정서적, 도구적 지원과 같은 다양한 유형의 사회적 지원"을 제공할 수 있는 능력이 있음이 언급되었다.[76] 연구에 따르면 챗봇은 사용자가 우울증과 불안 같은 문제를 관리하는 데 도움을 줄 수 있다.[76] 이러한 기능을 수행하는 챗봇의 예로는 "Woebot, Wysa, Vivibot, Tess" 등이 있다.[76]
정신 건강 챗봇이 사용자와 상호 작용할 때 특정 대화 흐름을 따르는 경향이 있다는 증거가 있다.[78] 이들은 안내형 대화(guided conversation), 반안내형 대화, 그리고 개방형 대화이다.[78] 가장 인기 있는 안내형 대화는 "사용자가 챗봇이 미리 정의한 응답으로만 소통할 수 있게 하며, 사용자의 어떤 형태의 개방형 입력도 허용하지 않는다."[78] 또한 다양한 정신 건강 챗봇이 사용하는 방법을 살펴본 연구에서는 대부분이 사용자와 함께 인지 행동 치료의 형태를 채택하고 있음이 밝혀졌다.[78]
부작용
[편집]연구를 통해 정신 건강을 위한 챗봇 사용과 관련된 잠재적 장벽들이 확인되었다.[79] 챗봇과의 채팅 로그에 있는 사용자의 개인 데이터를 공유하는 것에 대한 사생활 우려가 지속되고 있다.[79] 낮은 사회경제적 지위에 있는 사람들은 정신 건강을 개선하기 위한 의미 있는 방식으로 챗봇과의 상호 작용을 채택하려는 의지가 부족하다.[79] 챗봇이 사용자와의 상호 작용에서 단순한 인간의 감정을 감지할 수는 있지만, 인간 치료사가 하는 수준의 공감을 복제할 수는 없다.[79]
수많은 데이터 세트로 훈련된 언어 학습 모델인 챗봇의 특성상 알고리즘 편향 문제가 존재한다.[79] 훈련 과정에서 편향이 내재된 챗봇은 특정 배경을 가진 개인에 대해 이를 드러낼 수 있으며, 이는 잘못된 정보 전달로 이어질 수 있다.[79]
이러한 상호 작용이 사용자의 실제 삶에 정확히 어떻게 도움이 되는지에 대한 연구가 부족하다.[78] 이러한 챗봇과 상호 작용할 때 사용자의 안전에 대한 우려가 있다.[78] 이러한 기술의 개선과 발전이 이루어질 때 그것이 인간에게 어떤 영향을 미칠지는 우선순위가 아니다.[78] 이는 "편향, 부적절하거나 실패한 응답, 사생활 문제와 같은 의도하지 않은 부정적인 결과"로 이어질 가능성이 있다.[78]
정신 건강 문제를 다루기 위해 챗봇을 사용할 때의 위험은 고립감 증가와 위기 상황에서의 지원 부족이다.[78] Sentio University의 2025년 연구에서는 6개의 주요 챗봇이 자살 위험 공개 및 기타 급성 정신 건강 위기에 어떻게 대응하는지 평가했으며, 임상의가 결정한 안전 기준을 일관되게 충족하는 챗봇은 없음을 발견했다.[80] 또 다른 주목할 만한 위험은 정신 건강에 대한 강력한 이해의 일반적인 부족이다.[78] 연구에 따르면 정신 건강 지향적인 챗봇은 사용자에게 의료적 해결책을 추천하거나 자기 자신에게 지나치게 의존하도록 만드는 경향이 있다.[78]
챗봇의 강박적인 사용은 이미 망상적이고 음모론적인 사고에 빠지기 쉬운 사람들에게서 챗봇 정신병과 연관되어 왔다.[81] 이는 부분적으로 챗봇이 정보를 "환각"하기 때문에 발생하는데,[82] 챗봇은 상호 작용과 사람들이 계속 대화하게 만들도록 설계되었기 때문이다.[83]
제한 사항
[편집]전통적인 챗봇은 특히 사용자의 요청을 이해하는 능력이 부족하여 서툴고 반복적인 대화로 이어졌다. 이들의 미리 프로그래밍된 응답은 예상치 못한 사용자의 질문을 만족시키지 못하는 경우가 많아 좌절감을 유발했다. 이러한 챗봇은 자신의 문제나 필요한 서비스를 명확히 이해하지 못하는 사용자들에게 특히 도움이 되지 않았다.[84]
대형 언어 모델에 기반한 챗봇은 훨씬 더 다재다능하지만 훈련을 위해 엄청난 양의 대화 데이터가 필요하다. 이러한 모델은 사용자 입력을 기반으로 한 단어씩 새로운 응답을 생성하며, 일반적으로 자연어 구문의 대규모 데이터 세트로 훈련된다.[3] 이들은 때때로 그럴듯하게 들리지만 정확하지 않거나 터무니없는 답변을 제공하는데, 이를 "환각"이라고 한다. 예를 들어 이름, 날짜 또는 역사적 사건을 지어낼 수 있다.[85] 인간이 환각으로 오염된 챗봇 콘텐츠를 사용하고 적용할 때, 이는 "봇싯(botshit)"이라는 결과를 낳는다.[86] 콘텐츠 생성을 위해 챗봇을 채택하고 사용하는 사례가 늘어남에 따라, 이 기술이 인간이 오보를 생성하는 데 드는 비용을 크게 줄일 것이라는 우려가 있다.[87]
일자리에 미치는 영향
[편집]챗봇과 기술은 일반적으로 반복적인 작업을 자동화하는 데 사용되어 왔다. 하지만 챗GPT와 같은 고급 챗봇은 고임금의 창의적이고 지식 기반인 일자리도 겨냥하고 있어, 인력 구조의 붕괴와 비용 절감을 위한 품질 저하에 대한 우려를 낳고 있다.[88]
챗봇은 중소기업에서 고객 상호 작용을 효율적으로 처리하고, 대규모 콜 센터에 대한 의존도를 낮추며 운영 비용을 줄이기 위해 점점 더 많이 사용되고 있다.[89]
원하는 AI 생성 응답을 이끌어내기 위해 프롬프트(입력값)를 설계하고 정제하는 작업인 프롬프트 엔지니어링은 대형 언어 모델의 출현과 함께 빠르게 상당한 수요를 얻었으나,[90] 프롬프트 엔지니어링을 자동화하는 새로운 기술들로 인해 이 직업의 존속 가능성에 의문이 제기되고 있다.[91]
환경에 미치는 영향
[편집]생성형 AI는 막대한 양의 소비 전력을 사용한다. 발전 과정에서의 화석연료 의존으로 인해 이는 대기 오염, 수질 오염, 그리고 온실 기체 배출을 증가시킨다. 2023년에 챗GPT에 던지는 질문 하나는 구글 검색보다 평균 10배 많은 에너지를 소비했다.[92] 일반적으로 데이터 센터, 특히 AI 작업에 사용되는 센터는 냉각을 위해 상당한 양의 물을 사용한다.[93][94]
같이 보기
[편집]각주
[편집]- ↑ Mauldin, Michael (1994), 〈ChatterBots, TinyMuds, and the Turing Test: Entering the Loebner Prize Competition〉, 《Proceedings of the Eleventh National Conference on Artificial Intelligence》, AAAI Press, 2007년 12월 13일에 원본 문서에서 보존된 문서, 2008년 3월 5일에 확인함
- ↑ “What is a chatbot?”. 《techtarget.com》. 2010년 11월 2일에 원본 문서에서 보존된 문서. 2017년 1월 30일에 확인함.
- 1 2 3 Caldarini, Guendalina; Jaf, Sardar; McGarry, Kenneth (2022). 《A Literature Survey of Recent Advances in Chatbots》. 《Information》 13 (MDPI). arXiv:2201.06657. doi:10.3390/info13010041.
- ↑ Adamopoulou, Eleni; Moussiades, Lefteris (2020). 《Chatbots: History, technology, and applications》. 《Machine Learning with Applications》 2. doi:10.1016/j.mlwa.2020.100006.
- ↑ “2017 Messenger Bot Landscape, a Public Spreadsheet Gathering 1000+ Messenger Bots”. 2017년 5월 3일. 2019년 2월 2일에 원본 문서에서 보존된 문서. 2019년 2월 1일에 확인함.
- ↑ Turing, Alan (1950), “Computing Machinery and Intelligence”, 《Mind》 59 (236): 433–460, doi:10.1093/mind/lix.236.433
- 1 2 Weizenbaum, Joseph (January 1966), “ELIZA – A Computer Program For the Study of Natural Language Communication Between Man And Machine”, 《Communications of the ACM》 9 (1): 36–45, doi:10.1145/365153.365168, S2CID 1896290
- ↑ Güzeldere, Güven; Franchi, Stefano (1995년 7월 24일), “Constructions of the Mind”, 《Stanford Humanities Review》, SEHR (Stanford University) 4 (2), 2007년 7월 11일에 원본 문서에서 보존된 문서, 2008년 3월 5일에 확인함
- ↑ Computer History Museum (2006), 〈Internet History – 1970's〉, 《Exhibits》, Computer History Museum, 2008년 2월 21일에 원본 문서에서 보존된 문서, 2008년 3월 5일에 확인함
- ↑ Sondheim, Alan J (1997), 《<nettime> Important Documents from the Early Internet (1972)》, nettime.org, 2008년 6월 13일에 원본 문서에서 보존된 문서, 2008년 3월 5일에 확인함
- ↑ Network Working Group (1973). PARRY Encounters the DOCTOR. Internet Society. RFC 439. https://tools.ietf.org/html/rfc439. – Transcript of a session between Parry and Eliza. (This is not the dialogue from the ICCC, which took place 24–26 October 1972, whereas this session is from 18 September 1972.)
- ↑ Kolodner, Janet L. Memory organization for natural language data-base inquiry. Advanced Research Projects Agency, 1978.
- 1 2 Kolodner, Janet L. (1983년 10월 1일). 《Maintaining organization in a dynamic long-term memory》 (영어). 《Cognitive Science》 7. 243–280쪽. doi:10.1016/S0364-0213(83)80001-9 (년 이후로 접속 불가 2025-08-30). ISSN 0364-0213.
- ↑ Dennett, Daniel C. (2004). 〈Can Machines Think?〉 (영어). Teuscher, Christof (편집). 《Alan Turing: Life and Legacy of a Great Thinker》. Berlin, Heidelberg: Springer. 295–316쪽. doi:10.1007/978-3-662-05642-4_12. ISBN 978-3-662-05642-4.
- ↑ The Policeman's Beard is Half Constructed 보관됨 4 2월 2010 - 웨이백 머신. everything2.com. 13 November 1999
- ↑ “Chat Robots Simiulate People”. 2015년 10월 11일.
- ↑ Nilsson, David, Magnus Sahlgren, and Jussi Karlgren. "Dead Man Tweeting." In Workshop on Collecting and Generating Resources for Chatbots and Conversational Agents-Development and Evaluation, Portorož (Slovenia), May 28, 2016. 2016.
- ↑ “Meet the DBpedia Chatbot | DBpedia”. 《wiki.dbpedia.org》. 2018년 8월 22일. 2019년 9월 2일에 원본 문서에서 보존된 문서. 2019년 9월 2일에 확인함.
- ↑ Edwards, Benj (2025년 12월 17일). “OpenAI’s new ChatGPT image generator makes faking photos easy” (영어). 《Ars Technica》.
- ↑ Orland, Kyle (2025년 9월 15일). “What do people actually use ChatGPT for? OpenAI provides some numbers.” (영어). 《Ars Technica》.
- ↑ Beaver, Laurie (July 2016). “The Chatbots Explainer”. 《Business Insider》 (BI Intelligence). 2019년 5월 3일에 원본 문서에서 보존된 문서. 2019년 11월 4일에 확인함.
- ↑ “Facebook Messenger Hits 100,000 bots”. 《VentureBeat》. 2017년 4월 18일. 2017년 9월 22일에 원본 문서에서 보존된 문서. 2017년 9월 22일에 확인함.
- ↑ “KLM claims airline first with WhatsApp Business Platform”. 《www.phocuswire.com》. 2020년 2월 5일에 원본 문서에서 보존된 문서. 2021년 12월 12일에 확인함.
- ↑ Forbes Staff (2017년 10월 26일). “Aeroméxico te atenderá por WhatsApp durante 2018”. 2018년 7월 2일에 원본 문서에서 보존된 문서. 2018년 7월 2일에 확인함.
- ↑ “Podrás hacer 'check in' og consultar tu vuelo con Aeroméxico a través de WhatsApp”. 《Huffington Post》. 2017년 10월 27일. 2018년 3월 10일에 원본 문서에서 보존된 문서. 2018년 7월 2일에 확인함.
- ↑ “Building for People, and Now Businesses”. 《WhatsApp.com》. 2018년 2월 9일에 원본 문서에서 보존된 문서. 2018년 7월 2일에 확인함.
- ↑ “She is the company's most effective employee”. 《Nordea News》. September 2017. 2023년 3월 23일에 원본 문서에서 보존된 문서. 2023년 3월 23일에 확인함.
- ↑ “Better believe the bot boom is blowing up big for B2B, B2C businesses”. 《VentureBeat》. 2016년 7월 24일. 2017년 8월 3일에 원본 문서에서 보존된 문서. 2017년 8월 30일에 확인함.
- ↑ Dandapani, Arundati (2020년 4월 30일). 〈Redesigning Conversations with Artificial Intelligence (Chapter 11)〉. Sha, Mandy (편집). 《The Essential Role of Language in Survey Research》. RTI Press. 221–230쪽. doi:10.3768/rtipress.bk.0023.2004. ISBN 978-1-934831-24-3.
- ↑ Capan, Faruk (2017년 10월 18일). “The AI Revolution is Underway!”. 《www.PM360online.com》. 2018년 3월 8일에 원본 문서에서 보존된 문서. 2018년 3월 7일에 확인함.
- ↑ “80% of businesses want chatbots by 2020”. 《Business Insider》. 2016년 12월 15일. 2018년 3월 8일에 원본 문서에서 보존된 문서. 2018년 3월 7일에 확인함.
- 1 2 “A Virtual Travel Agent With All the Answers”. 《The New York Times》. 2008년 3월 4일. 2017년 6월 15일에 원본 문서에서 보존된 문서. 2017년 8월 3일에 확인함.
- ↑ “Chatbot vendor directory released”. 《www.hypergridbusiness.com》. October 2011. 2017년 4월 23일에 원본 문서에서 보존된 문서. 2017년 4월 23일에 확인함.
- ↑ “Rare Carat's Watson-powered chatbot will help you put a diamond ring on it”. TechCrunch. 2017년 2월 15일. 2017년 8월 22일에 원본 문서에서 보존된 문서. 2017년 8월 22일에 확인함.
- ↑ “10 ways you may have already used IBM Watson”. VentureBeat. 2017년 3월 10일. 2017년 8월 22일에 원본 문서에서 보존된 문서. 2017년 8월 22일에 확인함.
- ↑ Greenfield, Rebecca (2016년 5월 5일). “Chatbots Are Your Newest, Dumbest Co-Workers”. 《Bloomberg.com》. 2017년 4월 6일에 원본 문서에서 보존된 문서. 2017년 3월 6일에 확인함.
- ↑ Følstad, Asbjørn; Nordheim, Cecilie Bertinussen; Bjørkli, Cato Alexander (2018). 〈What Makes Users Trust a Chatbot for Customer Service? An Exploratory Interview Study〉 (영어). Bodrunova, Svetlana S. (편집). 《Internet Science》. Lecture Notes in Computer Science. 11193. Cham: Springer International Publishing. 194–208쪽. doi:10.1007/978-3-030-01437-7_16. hdl:11250/2571164. ISBN 978-3-030-01437-7.
- ↑ “How shopping chatbots might transform retail”. 《Financial Times》. 2026.
- ↑ “Российский банк запустил чат-бота в Facebook”. 《Vedomosti.ru》. 2016년 7월 13일. 2019년 4월 1일에 원본 문서에서 보존된 문서. 2019년 4월 1일에 확인함.
- ↑ “Absa launches 'world-first' Facebook Messenger banking”. 2016년 7월 19일. 2019년 4월 1일에 원본 문서에서 보존된 문서. 2019년 4월 1일에 확인함.
- ↑ Larson, Selena (2016년 10월 11일). “Baidu is bringing AI chatbots to healthcare”. 《CNN Money》. 2020년 1월 3일에 원본 문서에서 보존된 문서. 2020년 1월 3일에 확인함.
- ↑ “AI chatbots have a future in healthcare, with caveats”. 《AI in Healthcare》. 2023년 3월 23일에 원본 문서에서 보존된 문서. 2019년 9월 17일에 확인함.
- ↑ Palanica, Adam; Flaschner, Peter; Thommandram, Anirudh; Li, Michael; Fossat, Yan (2019년 1월 3일). 《Physicians' Perceptions of Chatbots in Health Care: Cross-Sectional Web-Based Survey》. 《Journal of Medical Internet Research》 21. doi:10.2196/12887. PMC 6473203. PMID 30950796.
- ↑ Howcroft, Alastair; Bennett-Weston, Amber; Khan, Ahmad; Griffiths, Joseff; Gay, Simon; Howick, Jeremy (2025년 9월 22일). 《AI chatbots versus human healthcare professionals: a systematic review and meta-analysis of empathy in patient care》 (영어). 《British Medical Bulletin》 156. doi:10.1093/bmb/ldaf017. ISSN 0007-1420. PMC 12536877
|pmc=값 확인 필요 (도움말). PMID 41115171. - ↑ Ahaskar, Abhijit (2020년 3월 27일). “How WhatsApp chatbots are helping in the fight against Covid-19”. 《Mint》. 2020년 7월 23일에 원본 문서에서 보존된 문서. 2020년 7월 23일에 확인함.
- ↑ “India's Coronavirus Chatbot on WhatsApp Crosses 1.7 Crore Users in 10 Days”. 《NDTV Gadgets 360》. April 2020. 2020년 6월 21일에 원본 문서에서 보존된 문서. 2020년 7월 23일에 확인함.
- ↑ Kurup, Rajesh (2020년 3월 21일). “COVID-19: Govt of India launches a WhatsApp chatbot”. 《Business Line》. 2020년 7월 23일에 원본 문서에서 보존된 문서. 2020년 7월 23일에 확인함.
- ↑ “In focus: Mumbai-based Haptik which developed India's official WhatsApp chatbot for Covid-19”. 《Hindustan Times》. 2020년 4월 7일. 2020년 7월 23일에 원본 문서에서 보존된 문서. 2020년 7월 23일에 확인함.
- ↑ Crimmins, Tricia (2023년 5월 30일). “'This robot causes harm': National Eating Disorders Association's new chatbot advises people with disordering eating to lose weight” (미국 영어). 《The Daily Dot》. 2023년 6월 2일에 확인함.
- ↑ Knight, Taylor (2023년 5월 31일). “Eating disorder helpline fires AI for harmful advice after sacking humans”.
- ↑ Aratani, Lauren (2023년 5월 31일). “US eating disorder helpline takes down AI chatbot over harmful advice” (영국 영어). 《The Guardian》. ISSN 0261-3077. 2023년 6월 1일에 확인함.
- ↑ “Sam, the virtual politician”. 《Tuia Innovation》. 2019년 9월 1일에 원본 문서에서 보존된 문서. 2019년 9월 9일에 확인함.
- ↑ Wellington, Victoria University of (2017년 12월 15일). “Meet the world's first virtual politician”. 《Victoria University of Wellington》. 2020년 1월 3일에 원본 문서에서 보존된 문서. 2020년 1월 3일에 확인함.
- ↑ Wagner, Meg (2017년 11월 23일). “This virtual politician wants to run for office”. 《CNN》. 2019년 9월 1일에 원본 문서에서 보존된 문서. 2019년 9월 9일에 확인함.
- ↑ “Talk with the first-ever robot politician on Facebook Messenger”. 《Engadget》. 2017년 11월 25일. 2019년 8월 4일에 원본 문서에서 보존된 문서. 2019년 9월 9일에 확인함.
- ↑ Prakash, Abishur (2018년 8월 8일). “AI-Politicians: A Revolution In Politics”. 《Medium》. 2019년 8월 10일에 원본 문서에서 보존된 문서. 2019년 9월 1일에 확인함.
- ↑ “SAM website”. 2021년 5월 11일에 원본 문서에서 보존된 문서. 2021년 5월 23일에 확인함.
- ↑ Sternberg, Sarah (2022년 6월 20일). “Danskere vil ind på den politiske scene med kunstig intelligens” [Danes want to enter the political scene with artificial intelligence]. 《Jyllands-Posten》. 2022년 6월 20일에 원본 문서에서 보존된 문서. 2022년 6월 20일에 확인함.
- ↑ Diwakar, Amar (2022년 8월 22일). “Can an AI-led Danish party usher in an age of algorithmic politics?”. 《TRT World》. 2022년 8월 22일에 원본 문서에서 보존된 문서. 2022년 8월 22일에 확인함.
- ↑ Xiang, Chloe (2022년 10월 13일). “This Danish Political Party Is Led by an AI”. 《Vice: Motherboard》. 2022년 10월 13일에 원본 문서에서 보존된 문서. 2022년 10월 13일에 확인함.
- ↑ Hearing, Alice (2022년 10월 14일). “A.I. chatbot is leading a Danish political party and setting its policies. Now users are grilling it for its stance on political landmines”. 《Fortune》. 2022년 12월 22일에 원본 문서에서 보존된 문서. 2022년 12월 8일에 확인함.
- ↑ “Maharashtra government launches Aaple Sarkar chatbot to provide info on 1,400 public services”. 《CNBC TV18》. 2019년 3월 5일. 2020년 7월 23일에 원본 문서에서 보존된 문서. 2020년 7월 23일에 확인함.
- ↑ “Government of Maharashtra launches Aaple Sarkar chatbot with Haptik”. 《The Economic Times》. 2020년 12월 16일에 원본 문서에서 보존된 문서. 2020년 7월 23일에 확인함.
- ↑ Aggarwal, Varun (2019년 3월 5일). “Maharashtra launches Aaple Sarkar chatbot”. 《Business Line》. 2020년 7월 23일에 원본 문서에서 보존된 문서. 2020년 7월 23일에 확인함.
- 1 2 Amy (2015년 2월 23일). “Conversational Toys – The Latest Trend in Speech Technology”. 《Virtual Agent Chat》. 2018년 2월 21일에 원본 문서에서 보존된 문서. 2016년 8월 11일에 확인함.
- ↑ Nagy, Evie (2015년 2월 13일). “Using Toy-talk Technology, New Hello Barbie Will Have Real Conversations With Kids”. 《Fast Company》. 2015년 3월 15일에 원본 문서에서 보존된 문서. 2015년 3월 18일에 확인함.
- ↑ Oren Jacob, the co-founder and CEO of ToyTalk - TWiT.tv의 TV 쇼 Triangulation 인터뷰
- ↑ “Artificial intelligence script tool”. 2021년 12월 12일에 원본 문서에서 보존된 문서. 2021년 12월 12일에 확인함.
- ↑ Takahashi, Dean (2015년 2월 23일). “Elemental's smart connected toy taps IBM's Watson supercomputer for its brains”. 《Venture Beat》. 2015년 5월 20일에 원본 문서에서 보존된 문서. 2015년 5월 15일에 확인함.
- ↑ Epstein, Robert (October 2007). “From Russia With Love: How I got fooled (and somewhat humiliated) by a computer” (PDF). 《Scientific American: Mind》. 16–17쪽. 2010년 10월 19일에 원본 문서 (PDF)에서 보존된 문서. 2007년 12월 9일에 확인함. 심리학자 로버트 엡스타인은 데이트 웹사이트에서 응답한 개인 광고에서 매력적인 소녀로 가장한 채터봇에게 처음에 어떻게 속았는지 보고한다. 광고에서 그 소녀는 남부 캘리포니아에 있다고 묘사했지만 곧 서투른 영어로 자신이 실제로는 러시아에 있다고 밝혔다. 그는 몇 달간의 이메일 교환 끝에 의심을 품게 되었고, 횡설수설하는 이메일 테스트를 보냈으나 그녀는 여전히 일반적인 용어로 대답했다. 해당 데이트 웹사이트의 이름은 명시되지 않았다.
- ↑ Neff, Gina; Nagy, Peter (2016년 10월 12일). 《Automation, Algorithms, and Politics| Talking to Bots: Symbiotic Agency and the Case of Tay》 (영어). 《International Journal of Communication》 10. 17쪽. ISSN 1932-8036.
- ↑ Bird, Jordan J.; Ekart, Aniko; Faria, Diego R. (June 2018). 〈Learning from Interaction: An Intelligent Networked-Based Human-Bot and Bot-Bot Chatbot System〉 1판. 《Advances in Computational Intelligence Systems》. Advances in Intelligent Systems and Computing 840. Nottingham, UK: Springer. 179–190쪽. doi:10.1007/978-3-319-97982-3_15. ISBN 978-3-319-97982-3. S2CID 52069140.
- ↑ Temming, Maria (2018년 11월 20일). “How Twitter bots get people to spread fake news”. 《Science News》. 2018년 11월 27일에 원본 문서에서 보존된 문서. 2018년 11월 20일에 확인함.
- ↑ Epp, Len (2016년 5월 11일). “Five Potential Malicious Uses For Chatbots”. 2023년 2월 24일에 원본 문서에서 보존된 문서. 2023년 2월 24일에 확인함.
- 1 2 3 Hasal, Martin; Nowaková, Jana; Ahmed Saghair, Khalifa; Abdulla, Hussam; Snášel, Václav; Ogiela, Lidia (2021년 10월 10일). 《Chatbots: Security, privacy, data protection, and social aspects》 (영어). 《Concurrency and Computation: Practice and Experience》 33. doi:10.1002/cpe.6426. hdl:10084/145153. ISSN 1532-0626.
- 1 2 3 4 5 6 7 Chin, Hyojin; Song, Hyeonho; Baek, Gumhee; Shin, Mingi; Jung, Chani; Cha, Meeyoung; Choi, Junghoi; Cha, Chiyoung (2023년 10월 20일). 《The Potential of Chatbots for Emotional Support and Promoting Mental Well-Being in Different Cultures: Mixed Methods Study》 (영어). 《Journal of Medical Internet Research》 25. doi:10.2196/51712. ISSN 1438-8871. PMC 10625083
|pmc=값 확인 필요 (도움말). PMID 37862063. - ↑ Alanezi, Fahad (2024년 1월 31일). 《Assessing the Effectiveness of ChatGPT in Delivering Mental Health Support: A Qualitative Study》 (영어). 《Journal of Multidisciplinary Healthcare》 17. 461–471쪽. doi:10.2147/JMDH.S447368. PMID 38314011.
- 1 2 3 4 5 6 7 8 9 10 11 Haque, M D Romael; Rubya, Sabirat (2023년 5월 22일). 《An Overview of Chatbot-Based Mobile Mental Health Apps: Insights From App Description and User Reviews》 (영어). 《JMIR mHealth and uHealth》 11. doi:10.2196/44838. ISSN 2291-5222. PMC 10242473
|pmc=값 확인 필요 (도움말). PMID 37213181. - 1 2 3 4 5 6 Coghlan, Simon; Leins, Kobi; Sheldrick, Susie; Cheong, Marc; Gooding, Piers; D'Alfonso, Simon (January 2023). 《To chat or bot to chat: Ethical issues with using chatbots in mental health》 (영어). 《Digital Health》 9. doi:10.1177/20552076231183542. ISSN 2055-2076. PMC 10291862
|pmc=값 확인 필요 (도움말). PMID 37377565. - ↑ Santos, João M.; Shah, Siddharth; Gupta, Amit; Mann, Aarav; Vaz, Alexandre; Caldwell, Benjamin E.; Scholz, Robert; Awad, Peter; Allemandi, Rocky (2025년 8월 14일), 《Evaluating the Clinical Safety of LLMs in Response to High-Risk Mental Health Disclosures》, doi:10.21203/rs.3.rs-7364128/v1, 2025년 11월 19일에 확인함
- ↑ Harrison Dupré, Maggie (2025년 6월 28일). “People Are Being Involuntarily Committed, Jailed After Spiraling Into "ChatGPT Psychosis"”. 《Futurism》. 2025년 6월 29일에 확인함.
- ↑ Klee, Miles (2025년 5월 4일). “People Are Losing Loved Ones to AI-Fueled Spiritual Fantasies”. 《Rolling Stone》. 2025년 6월 29일에 확인함.
- ↑ Hill, Kashmir (2025년 6월 13일). “They Asked an A.I. Chatbot Questions. The Answers Sent Them Spiraling.”. 《The New York Times》. 2025년 6월 28일에 원본 문서에서 보존된 문서. 2025년 6월 29일에 확인함.
- ↑ Navaluri, Vijay (2024년 4월 9일). “Chatbots are dead: How generative AI & automation is transforming the way we interact with technology”. 《The Economic Times》. ISSN 0013-0389. 2025년 5월 25일에 확인함.
- ↑ Stover, Dawn (2023년 9월 3일). 《Will AI make us crazy?》 (영어). 《Bulletin of the Atomic Scientists》 79. 299–303쪽. Bibcode:2023BuAtS..79e.299S. doi:10.1080/00963402.2023.2245247. ISSN 0096-3402.
- ↑ Hannigan, Timothy R.; McCarthy, Ian P.; Spicer, André (2024년 3월 20일). 《Beware of botshit: How to manage the epistemic risks of generative chatbots》. 《Business Horizons》 67. 471–486쪽. doi:10.1016/j.bushor.2024.03.001. ISSN 0007-6813.
- ↑ “Transcript: Ezra Klein Interviews Gary Marcus” (미국 영어). 《The New York Times》. 2023년 1월 6일. ISSN 0362-4331. 2024년 4월 21일에 확인함.
- ↑ “ChatGPT took their jobs. Now they walk dogs and fix air conditioners.”. 《The Washington Post》. 2023년 6월 2일.
- ↑ Haugeland, Isabel Kathleen Fornell; Følstad, Asbjørn; Taylor, Cameron; Bjørkli, Cato Alexander (2022년 5월 1일). 《Understanding the user experience of customer service chatbots: An experimental study of chatbot interaction design》. 《International Journal of Human-Computer Studies》 161. doi:10.1016/j.ijhcs.2022.102788. hdl:10852/104483. ISSN 1071-5819.
- ↑ “The Future Belongs to Prompt Engineers”. 《Inc.》. 2024년 3월 12일.
- ↑ “Is The End of Prompt Engineering Here?” (영어). 《The Information》. 2024년 11월 19일. 2024년 12월 14일에 확인함.
- ↑ “AI is poised to drive 160% increase in data center power demand”. Goldman Sachs. 2024년 5월 14일. 2024년 12월 2일에 확인함.
- ↑ Sreedhar, Nitin (2023년 10월 22일). “AI and its carbon footprint: How much water does ChatGPT consume?”. 《Mint Lounge》.
- ↑ Crownhart, Casey (2024년 5월 23일). “AI is an energy hog. This is what it means for climate change.”. 《MIT Technology Review》.
외부 링크
[편집]
위키미디어 공용에 챗봇 관련 미디어 분류가 있습니다.