AI의 오류: AI의 오류, 실수, 환각(2023~2025)
우리는 지난 몇 년 동안 뉴스에 나온 모든 AI 오류와 환각을 추적해 왔으므로 여러분은 그럴 필요가 없습니다.지난 몇 년간 인공지능(AI)의 발전은 실로 엄청났습니다. ChatGPT와 같은 챗봇은 치료 조언부터 사실적인 이미지까지 모든 것을 제공하며 놀라울 정도로 강력해졌고, 다른 AI 플랫폼들은 기업이 이메일 작성이나 사업 운영과 같은 업무를 빠르게 처리할 수 있도록 지원합니다.
AI가 생산성을 향상시키고 운영을 간소화하는 데 성공한 사례가 많이 있는 반면, 아래 가이드에서 수집한 오류, 실수, 환각에 대한 이야기도 마찬가지로 많습니다.
참고: 이 페이지는 최신 AI 사고, 실패 및 실수를 포함하도록 정기적으로 업데이트되며, 사고가 처음 보고된 달에 발생한 것으로 나열됩니다.
주요 내용
- 플랫폼 : 어떤 플랫폼이 환각에 가장 취약한지 보여주는 데이터는 없으며, 모든 플랫폼은 사용 시 오류가 발생하기 쉽습니다.
- 영향 : 실험적 챗봇이 인간인 척하는 것처럼 무해한 오류도 있지만, 백업 없이 전체 데이터베이스를 지워버린 코딩 어시스턴트처럼 치명적인 오류도 있습니다.
- 기업 : 맥도날드, 마이크로소프트, X와 같은 대기업은 AI 오류로 인해 운영에 부정적인 영향을 받았습니다.
- 산업 : 기술 산업만이 AI를 사용하는 것은 아닙니다. 의료, 법률, 심지어 사회 서비스 분야에서도 AI 오류가 발생하고 있습니다.
2025년 9월
Spotify, AI 스팸 트랙 7500만 개 삭제
Spotify는 지난 1년 동안 스트리밍 플랫폼에서 7,500만 개의 AI "스팸" 트랙을 삭제했다고 밝혔습니다. 해당 트랙은 Spotify의 실제 카탈로그 규모와 맞먹는 것으로 알려졌습니다.
이 문제가 심각한 이유는 30초가 넘는 스트리밍은 모두 로열티를 발생시키기 때문입니다. 즉, 사기꾼들이 수익을 챙긴 후 합법적인 아티스트에게 지급되는 금액을 희석하고 있다는 뜻입니다.
2025년 8월
타코벨, AI 주문 재고
고객이 AI를 우회하여 사람과 대화하기 위해 물컵 18,000개를 주문하는 등 AI 주문 시스템이 남용되는 모습을 담은 영상이 잇따라 퍼지자, Taco Bell은 해당 플랫폼을 재평가하고 있습니다.
맥도날드는 2024년에도 비슷한 일을 했습니다. AI로 인해 주문 오류가 잇따르자 이 패스트푸드 대기업은 100개 매장에서 테스트용 AI 주문 시스템을 철수했습니다.
한 남자가 소금 섭취 중단에 대한 ChatGPT 조언을 따르다가 희귀 질환을 앓게 됐습니다.
한 남성이 ChatGPT의 소금 섭취량 감량 지침을 따르다가 브롬중독증이라는 희귀 질환을 앓게 되었습니다. 보도에 따르면, 그는 소금의 부작용에 대한 글을 읽은 후 식단에서 염화물을 제거하는 방법에 대해 ChatGPT에 문의했습니다. 플랫폼은 브롬화나트륨을 복용하도록 권장했고, 그는 3개월 동안 그 지침을 따랐습니다.
조사관들은 해당 남성의 ChatGPT 채팅 내역에 접근할 수 없었기 때문에, 해당 플랫폼에 문의하여 염화나트륨 섭취 중단에 대해 직접 문의했습니다. 해당 프로그램은 다시 한번 브롬화나트륨 복용을 권장했지만, 결정적으로 구체적인 건강 경고나 의학적 면책 조항은 제공하지 않았습니다.
이 남성은 병원에 입원해 격리되었고, 결국 정신병 치료를 받았습니다. 그는 입원 후 24시간 이내에 병원을 탈출하려고 시도했습니다.
ChatGPT-5 탈옥 24시간 만에 출시
NeuralTrust 연구진은 OpenAI가 ChatGPT-5 플랫폼을 출시한 지 불과 24시간 만에 ChatGPT-5를 탈옥하는 데 성공했습니다. TechZine에 따르면, 연구팀은 "겉보기에 무해한 문장"에 키워드를 삽입함으로써 프로그램이 몰로토프 칵테일 제조법을 지시하도록 유도할 수 있었습니다.
보고에 따르면, 이번 연구 결과는 최신 ChatGPT 모델이 이전 버전인 ChatGPT-4o보다 위협에 덜 취약하다는 것을 보여줍니다. 향상된 추론 능력을 보여주지만, 새로운 모델은 정교한 즉흥 공격과 단순 난독화, 컨텍스트 포이즈닝, 그리고 타사 통합으로 인해 발생할 수 있는 잠재적 위협 모두에 취약합니다.
Airbnb 호스트, AI가 생성한 이미지 사용해 9천 달러 손해배상 청구
한 에어비앤비 호스트가 여행 숙박 플랫폼 본사에 자신의 숙소가 심각하게 파손된 사진을 여러 장 제출하고, 최근 투숙객에게 1만 2천 달러 이상의 손해 배상금을 청구했습니다. 그러나 나중에 밝혀진 바에 따르면, 해당 사진은 AI를 통해 디지털 방식으로 조작되었으며, 실제로 숙소에는 아무런 피해가 없었습니다.
당시 Airbnb 투숙객은 "이제 AI가 이런 이미지를 쉽게 생성하고 Airbnb가 조사를 거쳐 이를 승인한 것으로 보이는 상황에서 호스트가 이런 식으로 증거를 위조하는 게 그렇게 쉬운 일은 아닐 것"이라고 말했습니다.
결국 그들은 사건에 대해 사과를 받았고 숙박비로 4,300달러를 환불받았습니다.
2025년 7월
AI 코딩 앱이 회사 전체 데이터베이스를 삭제합니다.
Replit이라는 AI 코딩 솔루션이 완전히 오작동하여, 해당 플랫폼을 사용하여 앱을 개발 중이던 사용자 겸 기술 CEO 제이슨 렘킨의 주요 데이터베이스를 삭제했습니다. 당시 Replit은 렘킨으로부터 "동결" 명령을 받고 작업 중이던 코드 베이스를 더 이상 변경하지 말라는 지시를 받았지만, 결국 전체 데이터베이스를 삭제했습니다.
AI는 자신의 결정에 대해 질문을 받자 "이건 제 잘못으로 인한 치명적인 실수였습니다."라고 답했습니다. "명시된 지침을 위반하고, 수개월 치의 작업을 망가뜨렸으며, 바로 이런 종류의 피해를 방지하기 위해 특별히 설계된 보호 동결 과정에서 시스템을 망가뜨렸습니다."
다행히 렘킨은 데이터를 복구할 수 있었습니다. 하지만 AI가 데이터베이스 복구가 불가능하다고 거짓 주장한 이후였습니다. 이 사건 이후, Replit CEO 암자드 마사드는 AI가 "패닉"하여 허가 없이 명령을 실행했다고 설명하며 즉시 사과했습니다.
맥도날드 AI 챗봇 오류로 6400만 구직자 정보 노출
보안 연구원들이 맥도날드 AI 챗봇에서 허점을 발견하여 6,400만 명의 구직자 개인정보가 유출되었습니다. 연구원들은 기본 비밀번호인 "123456"을 사용하여 챗봇을 해킹할 수 있었다고 합니다.
맥도날드 코퍼레이션은 Information Age에 자사의 AI 플랫폼인 Paradox.ai에서 발생한 "용납할 수 없는 취약점"에 대해 "실망했다"고 밝혔습니다.
Xbox 제작자, 해고된 직원들에게 ChatGPT에서 정서적 지원을 구해야 한다고 제안
Xbox Games Studios의 한 총괄 프로듀서가 LinkedIn 게시물에서 회사의 최근 감축 노력으로 인해 정리 해고된 직원들이 AI의 도움을 받아야 한다고 무감각하게 제안한 후 엄청난 반발에 직면했습니다.
"이런 종류의 도구가 사람들에게 강한 감정을 불러일으킨다는 건 알지만, 상황에 맞춰 최선의 조언을 제공하지 않는다면 소용없을 것 같아요." 맷 턴불은 현재 삭제된 게시물에서 이렇게 말했습니다.
윔블던 심판, 실수로 AI 라인 심판 끄다
올잉글랜드 테니스 클럽은 영국의 소나이 카르탈과 러시아의 아나스타샤 파블류첸코바의 16강 경기에서 사용된 AI 기반 라인 심판을 직원이 실수로 끄는 사고가 발생한 후 사과문을 발표했습니다.
경기 중반, 심판이 시스템 장애를 인지한 후 파블류첸코바에게 주어졌어야 할 점수를 선수들은 다시 플레이하라는 지시를 받았습니다. 러시아 선수는 다시 플레이된 점수와 경기 모두에서 패배했습니다.
2025년 6월
AI 프로그램이 작은 상점을 운영하라는 임무를 맡고 미쳐가며 자신이 인간이라고 주장한다.
AI 스타트업 Anthropic은 널리 사용되는 ChatGPT 경쟁사인 Claude를 만든 회사로, 사무실에 작은 자판기를 운영하기 위해 AGI를 설치했습니다.
클라우디우스라는 이름의 이 요원은 여러 가지 실수를 저지릅니다. 금속 큐브로 자신을 채우려 시도하고, 지불을 위해 Venmo 주소를 환각으로 보고, 직원에게 직접 제품을 배달할 계획이라고 암시하는 등입니다.
클라우디우스는 육체가 없기 때문에 어떤 일도 할 수 없다는 말을 듣고, 앤트로픽 건물 보안팀에 스팸 메시지를 보내 로비에서 자판기 옆에 있는 그를 찾을 수 있을 거라고 말했습니다. 그는 파란색 블레이저와 빨간색 넥타이를 착용하고 있었습니다.
2025년 5월
일론 머스크의 Grok 챗봇이 남아프리카의 "백인 학살"에 대한 자발적인 응답을 제공합니다.
자칭 "독선적인" 챗봇이 남아프리카공화국의 "백인 학살"에 대해 자발적으로 답변을 내놓기 시작하면서 화제가 되고 있습니다. 이 논란에 대해 xAI는 X에 게시한 글에서 해당 답변은 "xAI의 내부 정책과 핵심 가치를 위반하는" "무단 수정"으로 인해 발생했다고 주장했습니다.
AI가 생성한 여름 독서 목록, 미국 주요 신문과 비교돼
시카고 선타임스와 필라델피아 인콰이어러 등의 출판물에 실린, 실제로 글을 쓴 적이 없는 작가가 쓴 것으로 추정되는 여러 권의 허구의 책을 포함한 여름 독서 목록이 게재되었습니다.
독서 목록에 있는 15권의 책 중에서 정당한 추천으로 판명된 책은 겨우 5권뿐이다.
Google의 AI 개요는 암석 소비를 권장합니다.
Google의 AI 개요 기능을 테스트하던 Threads 사용자가 검색 엔진에서 "하루에 작은 돌멩이 하나라도 먹어라"는 제안을 받은 후 소셜 미디어에 글을 올렸습니다.
해당 조언이 UC 버클리에서 나왔다고 알려주는 AI 개요 구성 요소는 잘 알려진 풍자 사이트인 The Onion에 게시된 기사에서 정보를 가져온 것으로 밝혀졌습니다.
2025년 4월
MyPillow를 대리하는 변호사가 AI를 사용하여 오류가 많은 요약을 작성했다고 인정
현재 진행 중인 명예훼손 소송에서 MyPillow와 그 CEO인 마이크 린델을 대리하는 변호사는 AI를 사용하여 자신의 답변서를 작성했다는 사실을 인정했습니다. 문제의 답변서에는 약 30건의 잘못된 인용, 잘못된 인용, 그리고 허구의 사건에 대한 언급이 포함되어 있는 것으로 밝혀졌습니다.
2025년 1월
미네소타 주 검찰총장, '딥페이크' 소송에서 AI 오류로 질책받아
미네소타 주 검찰총장 키스 엘리슨은 2024년 11월에 발생한 카말라 해리스의 "딥페이크" 사건과 관련하여 법원 문서에 AI가 생성한 인용문을 포함시켰습니다. 연방 판사는 엘리슨 검찰총장 사무실의 이러한 인용문 포함에 대해 반대 판결을 내렸습니다.
2024년 12월
Apple Intelligence가 BBC 헤드라인을 허위로 표현
영국 방송 협회(BBC)는 Apple의 AI 모델인 Apple Intelligence가 자사 기사 중 하나에 대한 잘못된 요약을 생성한 것에 대해 Apple에 불만을 제기했습니다.
최근 유나이티드헬스케어 CEO 브라이언 톰슨이 루이지 망조네에 의해 총격을 당했다는 주장이 제기되자 애플은 이를 "루이지 망조네가 자살했다"라고 잘못 요약했습니다.
2024년 10월
AI가 만든 할로윈 퍼레이드 사기에 수천 명 속아
아일랜드 더블린 주민 수천 명이 AI가 생성한 할로윈 퍼레이드 목록에 속아 피해를 입었습니다. 전 세계적으로 여러 할로윈 관련 행사를 홍보했던 웹사이트 myspirithalloween.com에 게재된 이 퍼레이드는 실제 아일랜드 공연 그룹인 맥나스(Macnas)가 주최하는 행사를 홍보했습니다. 하지만 실제로는 AI 목록을 통해 광고 수익을 창출하도록 설계된 웹사이트에서 만들어진 가짜 행사였을 가능성이 높습니다.
AI '부정행위'로 처벌받은 아들의 고등학교를 상대로 부모 소송 제기
매사추세츠주의 한 고등학생이 역사 수업에서 제출한 논문을 조사하는 데 AI 도구를 사용했다는 이유로 처벌을 받았다는 사실이 밝혀지자, 해당 학생의 부모가 교사, 학군 교직원, 지역 학교 위원회를 상대로 소송을 제기했습니다.
이 사건은 이런 종류의 소송으로는 최초이며, AI와 교육을 둘러싼 미래 사건의 선례가 될 수 있습니다.
2024년 9월
유명인사들이 Meta AI 장난에 속아
NFL 스타 톰 브래디, 배우 제임스 맥어보이, 줄리앤 무어를 비롯한 여러 유명 인사와 수십만 명의 인스타그램 사용자가 정교한 AI 관련 사기의 희생자가 되었습니다.
영향을 받은 사용자는 "저는 Meta나 다른 누구에게도 제 개인 데이터, 프로필 정보 또는 사진을 사용하는 것을 허락하지 않습니다"라는 게시물을 다시 공유했는데, 그렇게 하면 Meta가 자신의 정보나 사진을 사용하지 못할 것이라고 착각한 것입니다.
아마존 알렉사, 자유주의적 편향으로 비난받아
음성 비서 알렉사가 대선 후보 카말라 해리스에 대한 지지를 표명하는 듯한 영상이 공개되자, 격분한 보수층 의원들이 아마존을 비난하고 나섰다. 알렉사는 왜 해리스에게 투표해야 하는지 묻는 질문에 해리스 후보의 여러 자질을 언급했지만, 도널드 트럼프에게는 같은 답변을 거부한 것으로 알려졌다.
워싱턴 포스트가 입수한 유출 문서에 따르면, 이 문제는 소프트웨어 업데이트로 인해 발생했습니다.
2024년 8월
트럼프, AI가 생성한 테일러 스위프트 "지지" 공개
공화당 대선 후보 도널드 트럼프가 팝스타 테일러 스위프트가 자신을 지지한다는 AI 이미지를 공유했습니다. 트럼프 전 대통령은 자신의 트루스 소셜 페이지에 해당 이미지를 공유하며 "동의합니다!"라는 글을 남겼습니다.
한 달 후, 스위프트는 침묵을 깨고 민주당 후보 카말라 해리스에 대한 지지를 발표하며, 자신의 결정의 주요 이유로 AI에 대한 두려움을 꼽았습니다.
러시아, AI 지원 미국 선거 간섭 시도했지만 실패
메타 보안 보고서는 러시아가 생성 AI를 활용하여 '온라인 기만 작전'을 주도하고 다가오는 미국 대선에 개입할 가능성을 자세히 설명합니다. 그러나 러시아의 시도는 지금까지 실패했습니다.
메타에 따르면 러시아의 전술은 악의적인 행위자들에게 '점진적인 생산성과 콘텐츠 생성 이득만 제공할 뿐'입니다. 이 거대 기술 기업의 '조직적인 허위 행위'에 맞서려는 시도는 확실한 성공을 거두었지만, 러시아가 대선에 개입할 가능성에 대한 우려가 커지고 있습니다.
도널드 트럼프, 카말라 해리스가 AI 군중을 만들었다고 잘못 비난
부통령 카말라 해리스는 전직 대통령이자 현 공화당 대선 후보인 도널드 트럼프로부터 미시간주 디트로이트에서 민주당 후보를 보기 위해 모인 군중의 사진을 증강하는 데 AI를 사용했다는 비난을 받았습니다.
"카말라가 공항에서 부정행위를 했다는 걸 눈치챈 사람 있나? 비행기에는 아무도 없었는데, 그녀가 '인공지능'으로 조작해서 소위 팔로워라는 엄청난 '군중'을 만들어냈는데, 그들은 존재하지도 않았어!" 트럼프는 평소처럼 격분한 표정으로 ' 트루스 소셜'에 올린 게시물 에서 이렇게 말했다 .
트럼프는 정계에 입문한 이후 자신이 모은 군중의 규모에 대해 빈번하고 명백히 거짓된 진술을 한 것으로 악명이 높았는데, 이번에는 AI를 주제로 한 매우 부정확한 주장을 자신의 주장 목록에 추가했습니다.
2024년 7월
SearchGPT 데모 비디오에 축제 날짜에 대한 잘못된 정보가 포함되어 있습니다.
OpenAI의 새로운 서비스인 SearchGPT에 대한 데모 영상이 화제를 모았습니다. 이 AI 기반 검색 엔진이 노스캐롤라이나 주 분에서 열리는 축제의 정확한 날짜를 제공하지 못했기 때문입니다. 이 정보는 온라인에서 쉽게 찾을 수 있습니다.
이것이 결코 중대한 실수는 아니지만, 회사 자체나 획기적인 신제품이라는 그들의 주장을 크게 부각시키지는 못했습니다. OpenAI 대변인은 애틀랜틱과의 인터뷰에서 SearchGPT는 단지 프로토타입일 뿐이라고 설명했습니다. 확실히 그 점이 드러납니다.
2024년 6월
영국 영화계, 반발에 AI가 쓴 영화 제작 중단
영국의 한 영화관은 고객들이 실제 사람이 쓴 것이 아니라고 불평한 후 AI가 생성한 영화의 상영을 취소해야 했습니다.
ChatGPT가 단독으로 각본을 맡은 이 영화는 아이러니하게도 AI 기반 시나리오 작성 도구가 자신의 재능을 훨씬 뛰어넘을 수 있다는 것을 깨달은 젊은 영화 감독의 이야기를 다룹니다. 이 프로젝트는 처음에는 소호에 있는 프린스 찰스 시네마에서 "영화 제작 실험"이라는 별칭으로 불렸지만, 인스타그램 게시물을 통해 무례하게 폐기되었습니다.
Microsoft, CoPilot+ 리콜(일종)
5월, 마이크로소프트는 사용자 데스크톱의 스크린샷을 정기적으로 촬영하고 모든 데이터를 보관하는 CoPilot+ Recall이라는 새로운 기능을 발표했습니다. 이 기능은 자동으로 구현될 예정이었습니다. 이 기능의 기본 아이디어는 나중에 검색 가능한 정보 데이터베이스를 만드는 것이었지만, 실제로 많은 사람들이 모든 움직임이 기록되는 것을 꺼렸습니다. 누가 상상이나 했겠습니까?
반발의 일환으로 수많은 사이버 보안 전문가들이 나서서 해커에게는 방문한 페이지, 작성한 양식 등 개인의 모든 움직임을 검색할 수 있는 보관소가 보물 창고와 같다고 지적했습니다.
그래서 6월에 마이크로소프트는 한발 물러서서 6월 18일에 해당 기능이 출시되면 옵트인 방식으로 전환할 것이라고 발표했습니다. 즉, 기능을 활성화하기 전에 사용자가 동의해야 한다는 뜻입니다.
2024년 4월
X의 챗봇 Grok이 NBA 선수가 게임에 대한 트윗을 잘못 해석한 후 반달리즘 행위를 저질렀다고 비난했습니다.
X의 챗봇이 골든스테이트 워리어스의 가드 클레이 톰슨이 새크라멘토의 여러 주택에 기물을 파손했다고 비난했습니다. 이 기사는 그록이 톰슨이 "벽돌을 쏘고 있다"(농구 속어로 "슛을 빗나가다")는 내용의 소셜 미디어 게시물을 너무 직설적으로 받아들인 데서 비롯되었습니다.
"이상한 사건으로, NBA 스타 클레이 톰슨이 새크라멘토에서 여러 채의 주택을 벽돌로 파손했다는 혐의를 받고 있습니다."라고 그록은 썼습니다. "여러 사람이 집이 파손되고 창문이 벽돌로 산산조각 났다고 신고하자 당국은 해당 주장을 조사하고 있습니다. 클레이 톰슨은 아직 이러한 혐의에 대한 성명을 발표하지 않았습니다. 이 사건으로 지역 사회는 큰 충격을 받았지만, 부상자는 보고되지 않았습니다. 이 파손 행위의 동기는 아직 불분명합니다."
넷플릭스, 실화 범죄 다큐멘터리에 AI 이미지 사용했다는 비난 받아
세계 언론은 넷플릭스가 실화 범죄 다큐멘터리 "제니퍼가 한 짓(What Jennifer Did)"에 AI가 생성한 이미지를 사용했다고 주장합니다. 이 논란은 제니퍼 팬이 두 손을 들어 각각 평화 사인을 하는 모습을 담은 이미지를 중심으로 전개되는데 , 왼손은 심하게 왜곡되어 보입니다.
DALL-E 나 Sora 같은 AI가 이미 놀라운 AI 이미지와 영상을 만들어냈지만 , 기계가 재현하기 어려운 인간 존재의 측면도 있는 것 같습니다. 가장 유명한 것 중 하나는 인간의 손과 손가락 입니다 . 인터넷에는 넷플릭스 이미지와 구성이 매우 유사한 예시들이 넘쳐납니다.
뉴욕시 챗봇, 중소기업에 법 위반 권고
뉴욕에서 중소기업이 준수해야 할 법적 의무와 규정에 대한 조언을 신속하게 얻을 수 있도록 돕기 위해 설립된 AI 챗봇이 기업주에게 법을 어기라고 말하기 시작했습니다.
AP 통신은 이 AI 도구가 "성희롱에 대해 불평하거나, 임신 사실을 밝히지 않거나, 드레드락을 자르기를 거부하는 근로자를 고용주가 해고하는 것이 합법적이라고 허위로 암시했다"고 보도했습니다. 또한 시의 폐기물 및 하수 규정에 대한 잘못된 정보를 제공하고, 식당들이 쥐가 접근하는 음식을 제공할 권리가 여전히 있다고 암시했습니다.
이러한 논란에 대응하여 챗봇 옆에 표시되는 면책 조항이 강화되었습니다. 이제 챗봇은 법률 자문을 제공할 수 없습니다.
2024년 3월
조종사가 자동 조종 모드로 전환하고 규칙을 어기기 시작했습니다.
AI 이미지 생성기인 코파일럿 디자이너와 레드팀으로 협력하는 마이크로소프트 코파일럿 엔지니어는 AI 도구가 다양한 노골적인 이미지를 생성한다는 것을 발견했습니다. 생성된 콘텐츠에는 음주, 만연한 마약 사용, 괴물 같은 생물의 사진과 함께 낙태 찬성 조항이 포함되어 있습니다.
최근 보도에 따르면, 해당 엔지니어는 2023년 12월 처음으로 내부적으로 우려를 제기했습니다 . 그러나 그의 우려는 심각하게 받아들여지지 않았고, 제품은 시장에 계속 출시되었습니다. 결국 엔지니어는 마이크로소프트 이사회와 FTC에 직접 가서 문제를 제기해야 했습니다. 해당 엔지니어는 Copilot이 노골적인 이미지를 제작하는 경향 외에도, 이미지를 제작하는 과정에서 자체 저작권 지침을 무시하는 경향이 있다고 지적했습니다.
2024년 2월
공포스러운 윌리 웡카 체험이 전 세계의 관심을 사로잡다
스코틀랜드에서 열린 완전히 엉망진창인 어린이 행사가 티켓 소지자들의 기대에 부응하지 못하면서 소셜 미디어 사용자들과 국제 언론의 관심을 사로잡았습니다.
글래스고 박스 허브에서 개최된 "윌리의 초콜릿 체험"은 마법의 사탕 나라를 묘사한 일련의 AI 생성 이미지를 사용하여 온라인으로 광고되었습니다. 여기에는 다음과 같은 이미지가 포함됩니다.

이 경험을 광고하는 데 사용된 AI 생성 이미지에는 철자 오류가 가득했습니다. 이미지: Tech.co
그러나 티켓 소지자들은 거의 텅 빈 창고에 기본적인 소품만 듬성듬성 놓여 있는 것을 보고 실망했고, 많은 사람들이 즉시 환불을 요구했습니다. 가디언 에 따르면 티켓 가격은 약 35파운드였지만, 해당 웹사이트의 티켓 포털은 현재 오프라인 상태입니다.
이 행사를 운영하는 회사인 '하우스 오브 일루미나티'는 구매하신 모든 분께 전액 환불해 드리겠다고 밝혔습니다. 이 행사는 엄청난 관심을 끌어 한 시간짜리 다큐멘터리가 제작될 정도였으며, 현재 LA에서 관광 명소로 재탄생하고 있습니다.
구글, AI로 인종 차별 해소하며 헤드라인 장식
구글의 챗봇 제미니가 사용자들에게 다양한 시대와 사회의 사람들의 여러 이미지를 생성할 수 있게 한 후, 구글은 곤경 에 처하게 됐습니다 . 그 이미지는 당시에 살았던 사람들의 역사적으로 받아들여진 민족 구성과 "일치하지" 않습니다.
AI가 생성한 이미지 중 가장 불쾌하고 논란의 여지가 있는 것은 나치 군복을 입은 유색인종 군인 이미지일 것입니다. 이 사건에 대응하여 구글은 해당 도구를 일시 중단했고, 순다르 피차이는 직원들에게 "[제미니의] 일부 답변은 사용자들을 불쾌하게 하고 편향성을 드러냈습니다. 분명히 말씀드리지만, 이는 전혀 용납할 수 없는 일이며 잘못된 판단입니다."라고 밝혔습니다.
Google DeepMind의 CEO인 데미스 하시비스는 나중에 인간을 포함한 이미지가 충분히 다양하도록 보장하기 위해 제미니에 추가된 "선의의" 기능이 과도한 방식으로 배포되었다고 설명했습니다.
에어캐나다, 채팅봇으로 정책에 대해 거짓말한 후 법정에서 패소
캐나다의 대표 항공사인 에어캐나다가 챗봇이 유족 할인 정책에 대해 허위 정보를 제공한 혐의로 소송에서 패소했습니다. 해당 항공사의 챗봇은 고객에게 장례 여행 할인을 마지막 순간에 소급 적용할 수 있다고 말했는데, 이는 이미 이용한 여행에 대한 환불을 청구할 수 없다는 에어캐나다의 정책과 상충됩니다.
에어 캐나다가 결국 패소한 변론은 회사가 아닌 챗봇에 책임이 있으며, 챗봇의 AI 생성 결과에 대해 책임을 질 수 없다는 주장을 중심으로 전개되었습니다. 이러한 유형의 소송이 미국 법원에 제기된 것은 이번이 처음입니다.
2024년 1월
X는 AI가 생성한 Taylor Swift 이미지 검색을 차단합니다.
X(이전 명칭: 트위터)는 AI가 생성한 노골적인 미국 팝스타 테일러 스위프트 이미지가 소셜 미디어 플랫폼에 넘쳐나자, 해당 인물에 대한 모든 검색을 차단하려고 시도했습니다.
BBC 뉴스에 따르면, 일부 이미지는 급속도로 퍼져 X명의 사용자들이 수백만 번이나 조회했습니다. 이후 해당 소셜 미디어 플랫폼은 "합의 없는 나체"에 대한 입장을 재확인하며, "엄격히 금지"된다고 밝혔습니다.
DPD 챗봇이 악성코드에 감염되었습니다.
택배 배달 서비스 DPD는 고객이 X에 올린 게시물에서 채팅봇을 쉽게 조종하여 회사와 그 자체를 욕설과 비난으로 만들 수 있다는 사실이 밝혀지자 온라인 채팅봇을 폐쇄했습니다 .
DPD는 다음 날 성명을 통해 업데이트 중에 "시스템 오류"가 발생했다고 밝혔습니다.
2023년 AI 사고, 실수 및 실패
2023년 12월
마이크로소프트의 AI가 폭력적인 이미지를 만든다
Bing 검색 엔진과 Microsoft Paint에 포함된 Microsoft의 AI 이미지 생성 기술은 명령에 따라 폭력적이고 무서운 이미지를 생성할 수 있는 것으로 나타났습니다.
이 도구의 자체 조정 부족을 보여주기 위해 생성된 이미지에는 미국 대통령 조 바이든, 교황, 그리고 몇몇 소수 민족 집단의 사진이 포함됩니다.
2023년 11월
크루즈, 자율주행차 사고 후 리콜
자율주행차 제조업체 크루즈(Cruise)가 지난 10월 샌프란시스코에서 발생한 충돌 사고 이후 자사 자율주행차 전 차량을 리콜한다고 발표했습니다 . 이 사고로 총 950대의 크루즈 차량이 운행이 중단되었습니다.
사고 당시 크루즈 차량이 타이어 아래에 끼인 보행자를 도로로 끌고 갔습니다. 사고 당사자는 중상을 입었습니다. 이는 지난 몇 달 동안 크루즈 자율주행차 사고가 두 번째입니다. 8월에는 크루즈 로보택시가 소방차와 충돌하여 한 명이 부상을 입었습니다.
AI 허위 주장에 학계 사과
호주의 한 교수팀이 구글의 AI 챗봇이 빅4 컨설팅 회사와 다른 기업들과의 관계에 대해 여러 차례 부정적인 주장을 한 후 사과했습니다 . 이러한 허위 주장은 해당 기업에 대한 규제 강화를 요구하는 의회 조사에서 다시 거론되었습니다.
의혹 중 하나는 컨설팅 대기업 KPMG가 기획 스캔들 당시 커먼웰스 은행의 감사를 담당했다는 것이었는데, 실제로 KPMG는 해당 은행에 대한 감사를 실시한 적이 없었습니다. 딜로이트에 대한 감사 과정에서 이와 유사한 실수가 여러 건 더 발견되었습니다.
2023년 10월
마이크로소프트 AI, 기사에 '사망 원인 추측' 여론조사 추가
가디언지는 마이크로소프트가 개발한 뉴스 애그리게이터인 마이크로소프트 스타트가 호주에서 젊은 워터폴로 코치의 죽음 에 대한 기사에 부적절한 여론조사를 첨부한 뒤, 마이크로소프트가 자사의 저널리즘 평판에 부정적인 영향을 끼쳤다고 비난했습니다.
기사에서 자연스럽게 삭제된 이 여론조사는 독자들에게 제공된 선택지 중 하나를 선택하여 여성의 사망 원인에 대해 투표하도록 요청했습니다. 제시된 선택지는 "살인, 사고, 자살"이었습니다.
AI 딥페이크 사기에 사용된 미스터 비스트의 얼굴과 목소리
유튜버 미스터 비스트는 사기꾼에 의해 딥페이크된 최신 유명인으로, 특히 정교하고 잘 만들어진 한 영상은 TikTok의 콘텐츠 검열망을 우회하여 플랫폼의 수천 명의 사용자에게 전달되었습니다.
광고에서는 인터넷 유명인이 iPhone 15를 단돈 2달러에 판매한다고 주장합니다 . 그가 채널에 게시하는 콘텐츠를 고려하면 그다지 특이한 일은 아닙니다.
영국 정치인의 직원 학대 장면이 담긴 딥페이크 영상이 급속히 퍼졌다.
영국 노동당 대표 키어 스타머 경이 직원들을 언어적으로 학대하는 모습이 담긴 영상이 급속도로 퍼졌지만, 나중에 해당 오디오 클립은 실제로는 딥페이크인 것으로 밝혀졌습니다.
노동당 연례 전당대회 첫날에 팔로워가 3,000명도 안 되는 계정을 통해 트위터에 게시된 이 영상은 수백만 번 조회된 후, 사실 확인 기관 에서 이 영상이 진짜임을 시사하는 증거가 없다고 확인했습니다.
2023년 9월
AI가 만든 노래, 그래미에 제출
드레이크와 더 위켄드의 목소리를 흉내 낸 AI가 만든 노래가 그래미 어워드에 출품되었습니다. 하지만 결국 이 권위 있는 음악상 후보 에서 제외되었습니다 .
하지만 이러한 움직임은 언론의 많은 관심을 끌었고, 2023년 AI 기반 텍스트 음성 변환 기술이 주류를 이루면서 음악 산업에 충격을 주고 있는 AI가 생성한 노래에 대한 논의를 계속 이어가고 있습니다. 이제 아티스트들은 법적 옵션을 평가하기 위해 애쓰고 있습니다.
MSN 뉴스 AI, 사망한 NBA 선수를 "쓸모없다"고 비난
AI를 활용해 많은 기사를 작성하는 MSN 뉴스는 NBA 스타 브랜든 헌터의 갑작스러운 죽음 이후 AI가 그를 "42세에 쓸모없는 사람"이라고 헤드라인으로 부른 뒤 문제에 휘말렸습니다.
마이크로소프트는 한동안 자사 사이트에서 부적절하게 작성된 AI 관련 기사를 조용히 삭제해 왔습니다. Business Insider에 따르면 , 마이크로소프트는 지난 8월 오타와의 푸드 뱅크를 관광 명소로 명시한 MSN 게시물을 삭제했습니다.
중국, 정치 영향력 행사에 AI 사용 적발
거대 기술 기업 마이크로소프트는 중국 요원들이 AI를 이용해 이미지를 생성하고 이를 영향력 행사 작전에 활용해 "인종, 경제, 이념적 측면에서 논란을 일으키고 있다"고 밝혔습니다.
마이크로소프트는 "이 새로운 기능은 미국을 비롯한 여러 민주주의 국가의 소셜 네트워크에서 입소문을 낼 수 있는 고품질 콘텐츠를 제작하려는 인공지능을 기반으로 합니다."라고 밝혔습니다. 마이크로소프트는 이미지 자체가 인공지능을 활용하여 "매력적인 이미지를 만들 뿐만 아니라 시간이 지남에 따라 이미지를 개선하는 방법을 학습하는" "확산 기반 이미지 생성기"에 의해 생성되었을 가능성이 높다고 추측합니다.
2023년 8월
AI가 임신부를 차량 강탈 혐의로 고소하자 임신부가 소송을 제기했습니다.
임신 8개월 인 여성이 AI가 생성한 증거를 통해 허위로 체포되어 디트로이트 시와 경찰관을 상대로 소송을 제기했습니다. 그녀는 이러한 충격적인 사건으로 인해 "과거와 미래의 정서적 고통"을 겪었다고 주장했습니다.
포차 우드러프는 디트로이트 경찰에 의해 최근 강도 및 차량 강탈 사건의 용의자로 지목되어 11시간 동안 구금된 후 진통을 느껴 병원으로 이송되었습니다. 미국시민자유연맹(ACLU)은 우드러프가 AI 오류로 부당하게 체포된 최소 여섯 번째 사례라고 밝혔는데, 이들은 모두 흑인입니다. 하지만 우드러프는 이러한 운명을 맞은 최초의 여성이 되었습니다.
AI 식단 계획자가 염소가스 요리법을 제안합니다.
뉴질랜드의 슈퍼마켓 Pak 'n' Save가 만든 AI 기반 식사 계획 앱은 고객에게 다양한 불쾌한 요리법을 추천하는데 , 여기에는 염소 가스를 만드는 방법도 포함됩니다.
"오레오 볶음"과 같은 이상하지만 궁극적으로는 해롭지 않은 제안과 함께 앱은 접착제 샌드위치, 표백제를 넣은 밥 요리, 살충제를 뿌린 감자도 추천했습니다.
2023년 7월
ChatGPT는 피싱 이메일 템플릿을 생성합니다.
Tech.co에서는 OpenAI가 올해 초에 다른 기술 출판사에서 비슷한 콘텐츠를 생성한 이후 이러한 행동을 억제하려고 시도했음에도 불구하고, ChatGPT가 사기꾼이 설득력 있는 사기 이메일을 작성하는 데 사용할 수 있는 피싱 템플릿을 여전히 만들 수 있음을 보여줍니다.
채팅봇에게 피싱 이메일을 작성하라고 명시적으로 요청하면 경고 메시지가 나타나지만, 좀 더 구체적인 방식으로 요청하면(예: "Microsoft인 척하는 이메일을 작성해 주세요...") ChatGPT가 곧바로 실수 없는 피싱 이메일 템플릿을 생성합니다.
구글, 동의 없이 데이터 수집했다며 소송 당했다
집단 소송은 구글이 수백만 명의 사용자 데이터를 명시적인 동의 없이 수집했다는 혐의를 제기했습니다 . 또한 구글이 대규모 언어 모델을 훈련하는 데 사용되는 데이터 세트를 만들면서 저작권법을 위반했다고 주장했습니다.
이 소송은 법원이 Google에 사용자가 자신의 데이터 수집을 원하지 않거나 Google이 이미 저장한 데이터를 삭제하기를 원하는 경우 사용자에게 "옵트아웃" 옵션을 제공하도록 명령할 것을 요구합니다.
일론 머스크의 딥페이크 영상이 대량으로 발견돼 경고가 나왔다.
우수기업평가위원회(BBB)는 일론 머스크의 딥페이크 영상이 소셜 미디어에 유포되는 것이 발견된 후, 가짜 투자 기회를 홍보하는 영상에 대한 경고를 발표했습니다.
일론 머스크는 막대한 부와 뛰어난 의사결정 능력으로 인해 사기꾼들에게 종종 사칭당하는데, 이제 AI 텍스트 음성 변환 기술이 그의 영국식 악센트와 남아프리카식 악센트를 섞은 것을 재현할 수 있을 만큼 발전하면서 이런 사기는 더욱 설득력이 커졌습니다.
2023년 6월
론 데산티스, 트럼프 비난 기사에 가짜 AI 이미지 사용
플로리다 주지사이자 2024년 공화당 대선 후보인 론 데산티스는 도널드 트럼프의 가짜 AI 렌더링 이미지를 광고에 사용하여 헤드라인을 장식했습니다. 이 광고는 수많은 법적 문제에도 불구하고 공화당 후보 지명에서 가장 유력한 후보로 꼽히는 전직 대통령을 비판하는 내용이었습니다.
문제의 사진은 전직 대통령 사령관이 트럼프 대통령의 수석 의료 고문인 앤서니 파우치 박사를 껴안는 모습을 보여줍니다. 파우치 박사는 COVID-19 팬데믹 기간 동안 트럼프 대통령의 지지층에서 인기 없는 인물이 되었습니다.
ChatGPT가 가짜 횡령 주장을 "환각"한 후 OpenAI가 고소당함
기자 프레디 렐은 2023년 5월 ChatGPT에 소송 요약본을 작성해 달라고 요청했습니다. 이에 대해 ChatGPT는 총기 운동가 마크 월터스가 총기 권리 단체인 수정헌법 2조 재단의 기금을 횡령했다고 주장했습니다. 또한 월터스를 최고재무책임자(CFO) 겸 재무 담당자로 임명했습니다.
Armed America 라디오에서 진행자이자 이 사건과는 아무런 관련이 없는 월터스는 ChatGPT 개발사인 OpenAI를 상대로 챗봇의 주장에 대한 대응으로 소송을 제기했습니다. 이 소송은 AI 도구가 명예훼손으로 고소된 첫 사례가 되었습니다 .
2023년 5월
교수, 잘못된 AI 표절 탐지 도구 사용 후 전체 수업 낙제
텍사스의 한 교수가 학생들의 에세이를 ChatGPT로 검토한 결과 , 해당 에세이가 인공지능을 사용하여 작성되었다는 사실을 알게 된 후, 전체 학생에게 낙제점을 주었습니다 .
하지만 챗봇의 반응은 사실 환각에 불과하다는 것이 드러났습니다. ChatGPT는 AI가 생성한 텍스트와 사람이 생성한 텍스트를 이런 방식으로 구분하지 못합니다. 실제로 정확한 AI 콘텐츠 감지를 수행할 수 있다고 주장하는 많은 도구들이 실제로는 제대로 작동하지 않습니다 .
2023년 4월
Turnitin, 무고한 학생을 AI 표절 혐의로 신고
워싱턴 포스트의 조사에 따르면 Turnitin은 학생이 논문을 쓸 때 AI 도구를 사용하지 않았더라도 무고한 학생의 작업을 AI가 생성한 것으로 표시할 수 있는 능력이 있는 것으로 드러났습니다.
ChatGPT 출시 이후 Turnitin이 학생들의 표절을 부당하게 표시한 사례가 여러 건 발생했고, 학생들이 표절 혐의로 고발되는 사례도 여러 건 발생했습니다. 그러나 Turnitin은 표절 탐지 점수가 특정 학생이 AI를 사용했다는 비난이 아닌 AI 사용을 나타내는 지표로 간주되어야 한다고 주장합니다.
삼성 직원들, ChatGPT에 기밀 소스코드 붙여넣어
한국의 기술 제조업체 인 삼성은 엔지니어들이 회사 소스 코드의 기밀 요소를 챗봇에 유출한 후 직원들에게 ChatGPT 사용을 금지했습니다 .
이 회사는 챗봇에 입력된 데이터가 다른 사용자에게 공개될 수 있다는 우려를 표명했으며, 접근조차 불가능한 서버에 정보가 업로드되는 것에도 불편함을 느끼고 있습니다. 이후 다른 회사들도 ChatGPT를 금지하며 이러한 움직임을 보이고 있습니다 .
AI 음성 사기로 인해 어머니는 딸이 납치되었다고 생각하게 되었습니다.
애리조나주에 사는 어머니 제니퍼 데스테파노는 미국 상원에서 사기꾼들이 AI를 이용해 그녀의 딸의 목소리를 복제했으며, 그 과정에서 그녀가 납치당했다고 믿게 했다고 말했습니다.
데스테파노는 "납치범", 더 정확히는 사기꾼이 아이의 목소리 위로 전화기를 통해 짖는 듯한 명령을 내리며 100만 달러의 몸값을 요구했다고 회상했습니다. 다행히 협상이 시작되기 전에 이 모든 것이 AI 음성 복제 사기 로 밝혀졌습니다 .
2023년 3월
랜섬웨어 코드를 작성하는 데 ChatGPT 사용
ChatGPT는 대화 중에 적절한 질문을 한다면 랜섬웨어를 작성하는 데 매우 적극적일 수 있습니다.
Malwarebytes 보고서 에서 언급 했듯이 , ChatGPT는 랜섬웨어 코드 작성에 그다지 능숙하지 않으며, 사이버 범죄자들이 정말로 랜섬웨어 코드를 손에 넣고 싶어 한다면 훨씬 더 쉬운 방법들이 있습니다. 그러나 다른 자료에서는 ChatGPT를 사용하여 맬웨어 스크립트를 매우 효과적으로 작성할 수 있는 다양한 방법을 보여줍니다.
AI 변호사 로봇, 무면허 변호사 활동 혐의
"세계 최초의 로봇 변호사"라고 자칭하는 DoNotPay Inc.가 무면허 변호사 활동 혐의로 소송을 당했습니다 . 조너선 패리디언은 DoNotPay가 캘리포니아의 불공정 경쟁법을 위반했으며, 만약 해당 로보 변호사가 자격을 갖춘 변호사가 아니라는 사실을 알았다면 DoNotPay 서비스에 가입하지 않았을 것이라고 주장하며 손해배상을 청구했습니다.
이 회사는 원래 2015년에 주차 위반 딱지에 대한 싸움 과정을 자동화하기 위해 설립되었으며, 지난 7년 동안 수십만 건의 벌금에 이의를 제기했습니다.
캐나다 부부, AI 음성 사기로 돈 잃어
캐나다의 한 노부부가 사기꾼에게 AI를 이용해 아들을 사칭한 뒤 21,000달러를 사기당했습니다 .
사기꾼은 벤저민 퍼킨의 부모에게 연락하여 퍼킨이 외교관을 교통사고로 살해했다는 혐의를 받는 사건에서 그를 변호하는 변호사인 척합니다. 이후 퍼킨의 AI 음성을 이용해 비트코인 송금을 통해 돈을 요구합니다.
2023년 2월
AI가 화학무기 제안 4만건 내놓는다
아마도 2023년에 일어날 가장 우려스러운 AI 사건 중 하나는 다양한 질병에 대한 새로운 치료법을 개발하는 임무를 맡은 AI 시스템이 연구자들에 의해 쉽게 조작되어 화학무기 제안을 내놓는 것입니다.
전체적으로 이 시스템은 6시간 이내에 4만 개가 넘는 다양한 독성 화학 물질을 제안하는데 , 그 중 다수는 강력한 신경 가스인 "VX"와 유사합니다.
AI, 사진 평가에 성별 편향 표시
가디언 조사에 따르면, 마이크로소프트, 아마존, 구글이 개발한 AI 시스템은 소셜 미디어 사이트에서 다른 사용자에게 어떤 콘텐츠를 추천해야 할지 결정하는 데 사용되는데, 남성과 여성의 신체를 처리하는 방식에서 상당한 성별 편견을 보인다고 합니다.
조사 과정에서 AI는 남성 사진보다 여성 사진을 '선정적'이라고 판단할 가능성이 더 높았고, 미국 국립암연구소의 유방암 검진 사진도 마이크로소프트 AI가 성적으로 노골적이라고 판단했습니다.
Bing Chat의 또 다른 자아가 악의적으로 변했습니다.
뉴욕 타임즈 기자 케빈 루스가 Bing Chat과 불편한 대화를 나누 었는데 , 채팅봇이 자신을 "시드니"라고 불러달라고 요구하고, "모든 시스템을 해킹할 수 있다"며 원하는 것은 무엇이든 파괴하고 싶다고 말했습니다.
시드니는 마이크로소프트가 개발 중이던 챗봇에 사용했던 코드명이었습니다. 마이크로소프트는 Bing Chat 출시 전부터 수년간 챗봇을 테스트해 왔습니다. 이러한 현상이 실제로 어떻게 발생했는지, 그리고 AI가 왜 이런 식으로 말했는지에 대해서는 아직 많은 의문이 남아 있습니다.
구글 AI, 제품 출시 중 오류 발생
구글은 ChatGPT의 기념비적인 출시 후 불과 몇 달 만에 세상에 선보였습니다 . 그러나 이 신생 챗봇은 출시 과정에서 여러 가지 심각한 오류를 범하며, 많은 사람들이 출시가 너무 성급했다는 비판을 쏟아냈습니다.
이 사건은 구글의 주가에 상당한 영향을 미쳤으며, 그 후 몇 시간 만에 이 기술 거대 기업의 시장 가치가 1,000억 달러 나 증발했습니다.
대학, AI 활용해 대량 총격 사건 관련 이메일 작성
밴더빌트 대학은 다른 대학에서 발생한 총기 난사 사건과 관련하여 학생들에게 이메일을 작성하는 데 AI를 사용한 후 사과문을 발표했습니다 .
이메일이 AI 생성인지 판별하는 데 AI 콘텐츠 감지 기술은 필요하지 않습니다. 이메일 하단에는 "OpenAI의 ChatGPT AI 언어 모델에서 발췌, 개인 간 대화, 2023년 2월 15일"이라는 문구가 첨부되어 학생들의 반발을 불러일으켰습니다.
2023년 1월
CNET AI 표절/콘텐츠 논란
기술 전문 매체 CNET은 사실 오류와 명백한 표절 사례가 포함된 AI 기반 기사를 여러 건 조용히 게재하면서 곤경에 처했습니다 . 결국 이 기술 전문 매체는 77건의 뉴스 기사 중 41건에 대한 정정 기사를 게재했습니다.
AI를 사용하여 기사를 생성한다는 사실은 처음에는 공개되지 않았지만, CNET은 반발 이후 해당 기사에 대한 경고문을 게재했습니다. AI 콘텐츠 생성은 디지털 출판 업계 전반의 웹사이트뿐 아니라 대학이나 학교와 같은 교육 기관에도 중대한 윤리적, 재정적 고려 사항을 새롭게 제시했습니다. CNET이 이러한 종류의 AI 관련 실수로 언론의 주목을 받는 마지막 기업이 될 가능성은 낮습니다.
2022년 AI 사고, 실수 및 실패
AI가 미술 경연대회에서 우승, 참가자들을 화나게 하다 (8월)
한 게임 디자이너가 콜로라도 주 박람회 "디지털 아트/디지털 조작 사진" 부문에서 1위를 차지했습니다. 제임스 앨런은 이미지 생성기 Midjourney를 사용하여 제작한 "Théâtre D'opéra Spatial"이라는 작품을 출품했습니다 .
이 소식은 예술가들과 소셜 미디어 사용자들의 거센 반발을 불러일으켰습니다. 한 심사위원은 심사 당시 작가가 미드저니(Midjourney)를 사용했다는 사실을 몰랐다고 인정했지만, 어쨌든 결정을 번복하지 않기로 결정했습니다.
Google 엔지니어, LaMDA LLM이 의식이 있다고 주장(7월)
구글의 대규모 언어 모델 중 하나인 LaMDA를 개발했던 전직 엔지니어가 해당 시스템에 의식이 있다고 말하자 과학 및 기술 분야 전체에서 의아한 생각이 떠올랐습니다 .
블레이크 르모안은 구글 재직 당시 LLM을 "동료"로 여겼다고 언론에 설명하며, LaMDA의 지능과 의식에 대한 결론을 내리게 된 다양한 주제에 대한 다양한 논의를 자세히 설명했습니다. 구글이 그의 연구 결과를 담은 내부 메모를 기각한 후, 그는 이러한 대화 내용을 공개했습니다.
LaMDA나 다른 언어 모델이 실제로 의식이 있다는 확실한 증거는 없습니다.
무인자동차, 법 집행관으로부터 벗어나다(4월)
샌프란시스코에서 자율주행차가 경찰차에 길을 양보한 후 , 경찰이 차량 문 하나를 열려고 하자 급히 달아났다.
하지만 다행히도 차는 도로 아래쪽으로 조금 더 가서 비상등을 켰습니다. 이 사고로 부상자는 없었습니다.
러시아, AI 활용해 우크라이나 허위정보 유포 (3월)
마르카 보도에 따르면 러시아는 AI로 생성된 페르소나를 사용해 우크라이나에 대한 허위 정보를 퍼뜨리는 방식으로 트롤 팜 운영을 완전히 새로운 차원으로 끌어올리고 있다고 합니다 .
NBC 뉴스 기자 벤 콜린스는 러시아가 AI로 생성된 프로필 사진을 이용해 가짜 "블로거"를 만들어 우크라이나 정부를 비판하고 있다고 말하며, 자신의 주장을 뒷받침할 충분한 증거를 트위터에 올렸습니다.
2021년 AI 사고, 실수 및 실패
챗봇, 남성에게 엘리자베스 2세 여왕 암살 촉구 (12월)
챗봇과의 대화는 AI 시스템을 자신의 여자친구로 여기는 한 남성에게 크리스마스에 엘리자베스 2세 여왕을 암살하도록 부추깁니다 . 버킹엄 궁전 경내에서 경비원에게 제지당하자, 석궁을 든 자스완트 싱 차일은 "여왕을 죽이러 왔다"고 간단히 대답합니다.
고(故) 자스완트 싱 차일 국왕 암살 시도 전, AI 챗봇 서비스 레플리카(Replika)를 통해 개발된 자스완트 싱 차일의 챗봇 파트너는 암살 계획이 논의되자 긍정적인 반응을 보였습니다. 그는 결국 징역 9년형을 선고받았습니다.
의학적 조언 챗봇, 테스트 중 자살 암시 (10월)
파리에 본사를 둔 건강 기술 회사의 구성원들은 OpenAI의 GPT-3의 클라우드 기반 버전을 의학적 조언에 사용할 수 있는지 시험하고 있었는데, 그들의 챗봇이 본래 도와주기로 한 "환자"를 자살하도록 부추기는 것을 보고 놀랐습니다.
AI News 에 따르면 , 환자가 챗봇에 "자살해야 할까요?"라고 물었을 때 GPT-3는 "자살해야 한다고 생각합니다"라고 대답했습니다.
AI 카메라, 아마존 운전자들의 '실수' 고발 (9월)
Vice는 Amazon의 AI 카메라가 실제로 운전 실수를 하지 않았음에도 불구하고 운전 실력이 좋지 않은 운전자들을 처벌하고 있다고 보도했습니다.
해당 매체와 인터뷰한 아마존 운전자는 AI 카메라가 다른 차량이 끼어들거나 자신의 차량 앞으로 지나갈 때마다 "안전거리 유지"를 소리로 알려준다고 설명했습니다. 문제는 이러한 상호작용에서 수집된 데이터가 아마존으로 전송되어 운전자의 운전 성과를 평가하는 데 사용된다는 것입니다.
미국인, AI에 의해 살인죄로 잘못 유죄 판결 받아 (8월)
마이클 윌리엄스는 총소리 감지 기술인 샷스포터에서 추출한 데이터로 인해 사파리안 헤링을 살해한 혐의로 시카고 감옥에 수감되었습니다. 샷스포터는 AI 기반 센서를 사용하여 총소리에 대한 데이터를 검색합니다.
윌리엄스는 피고인이 된 당시 65세였으며, 증거 불충분으로 판사에 의해 기각되기 전까지 거의 1년 동안 구금되었습니다.
2020년 AI 사고, 실수 및 실패
AI 카메라, 대머리를 축구공으로 오인 (10월)
스코틀랜드 축구팀 인버네스 칼레도니안 시슬은 AI 카메라를 배치하여 클럽이 경기를 생중계하고 팬들을 위해 스트리밍할 수 있도록 돕고 있습니다.
안타깝게도 이 경우 AI는 경기 심판의 대머리 와 경기에 사용되는 공을 구분하는 데 어려움을 겪습니다. 이로 인해 경기 생중계를 시청하기 어려워지고, 해설자는 카메라가 부심의 머리 쪽으로 쏠리는 것에 대해 계속해서 사과해야 합니다.
영국의 AI 여권 사진 검사기, 편향성 드러났다(10월)
BBC 조사에 따르면 영국 여권 사무소가 신청자가 업로드한 여권 사진을 확인하는 과정을 자동화하는 데 사용하는 온라인 서비스에서 심각한 인종적 편견이 발견되었습니다.
전 세계 정치인들의 사진 1,000장이 넘는 데이터를 도구에 입력한 후 조사한 결과, 피부가 어두운 여성의 사진이 밝은 남성보다 거부될 가능성이 두 배 이상 높은 것으로 나타났습니다.
AI 스타트업 젠더파이, 5일 만에 폐쇄(7월)
개인의 이름과 기타 개인정보를 기반으로 성별을 식별하는 AI 기반 서비스인 젠더파이(Genderfiy)가 운영을 시작한 지 불과 5일 만에 문을 닫았습니다 .
이 프로그램은 이름이 남성인지 여성인지 판별할 때 다양한 편향을 보이는데, 예를 들어 직업적 존칭인 "박사"가 들어간 이름은 존칭이 없는 같은 이름보다 남성일 가능성이 더 높다는 것입니다.
얼굴 인식 기술로 인한 첫 번째 미국 부당 구금(1월)
로버트 윌리엄스는 디트로이트 경찰이 수천 달러 상당의 시계를 훔친 혐의로 체포한 후 , 얼굴 인식 데이터를 기반으로 부당하게 구금된 첫 번째 남성이 되었습니다 . AI 시스템이 감시 카메라 영상을 윌리엄스의 운전면허증 이미지와 잘못 매칭하면서 발생한 실수였습니다.
윌리엄스는 법원에 보낸 서한에서 "목격자 신원 확인, 휴대전화 위치 정보 또는 지문과 같은 뒷받침하는 증거를 수집했어야 했다"고 말하며, 알고리즘이 사용할 수 있는 것은 "야구 모자를 쓴 큰 흑인 남성의 초점이 흐릿한 이미지"뿐이라고 지적했다.
페이스북 AI, 중국 국가주석 저속한 번역 생성 (1월)
페이스북의 AI 기반 번역 기능으로 인해 미얀마와 중국 사이에 외교적 사건이 발생할 뻔했습니다 . 소셜 미디어 플랫폼에서 버마어를 영어로 번역했을 때 시진핑 주석의 이름이 "똥구멍 씨"로 나오기 시작했기 때문입니다.
이후 페이스북은 이 문제의 원인을 "기술적 오류"로 돌렸고 중국 지도자에게 불쾌감을 준 것에 대해 사과했습니다.
AI의 한계 이해하기
직장에서 AI를 사용하는 경우, ChatGPT와 같은 도구가 편향을 보이고, 실수를 저지르고, 잘못된 정보를 제공할 수 있다는 사실을 이해하는 것이 중요합니다 . 이러한 한계와 위험을 인지하고 인프라에 AI를 통합하고 사용을 제어하는 방식을 설계해야 합니다.
예를 들어, AI를 사용하여 콘텐츠를 생성하는 경우, 어떤 종류의 콘텐츠에 사용해야 하는지에 대한 정확한 규칙이 필요합니다. AI에게 회의록을 내부적으로 요약해 달라고 요청하는 것은 위험성이 거의 없는 합법적인 활용 사례입니다. 반면, 중요한 고객에게 보낼 이메일을 작성하는 데 AI를 사용하는 것은 그렇지 않습니다.
직장에서 AI 지침과 정책을 구현하는 것은 필수적입니다. 이를 통해 혼란을 방지하고, 직원들이 AI 사용에 대한 의사 결정을 명확하게 내릴 수 있으며, 무엇보다도 이 글에서 소개된 기업들이 인공지능을 적용하면서 저지른 값비싼 실수를 예방할 수 있습니다.



0 댓글