인간과 유사한 인공지능이 도덕적 위법 행위에 대해 더 큰 비난을 받을 수도 있다
새로운 연구에서 참가자들은 AI가 인간과 더 비슷한 정신을 가지고 있다고 인식했을 때 실제 세계의 도덕적 범법에 연루된 인공 지능(AI)에 더 큰 책임을 돌리는 경향이 있었습니다. 한국 서울에 있는 숙명여자대학교의 주민주는 2024년 12월 18일에 오픈 액세스 저널 PLOS ONE 에 이러한 연구 결과를 발표했습니다.
이전 연구에 따르면 사람들은 자율주행차가 보행자를 치는 경우나 의학적 또는 군사적 피해를 입힌 결정과 같은 다양한 도덕적 범죄에 대해 AI를 비난하는 경향이 있는 것으로 나타났습니다. 추가 연구에 따르면 사람들은 인식, 사고 및 계획이 가능한 것으로 인식되는 AI에 더 많은 비난을 돌리는 경향이 있습니다. 사람들은 의식적 감정을 경험할 수 있는 인간과 같은 마음을 가진 것으로 인식되는 AI에 그러한 능력을 돌릴 가능성이 더 높을 수 있습니다.
주는 이전 연구를 바탕으로 인간과 유사한 정신을 가진 것으로 여겨지는 AI가 주어진 도덕적 범죄에 대해 더 큰 비난을 받을 수 있다는 가설을 세웠습니다.
이 아이디어를 시험하기 위해 Joo는 여러 실험을 진행했는데, 참가자들에게 AI와 관련된 도덕적 범법의 다양한 실제 사례(예: 사진의 인종 차별적 자동 태그 지정)를 제시하고, 관련 AI에 대한 마인드 지각을 평가하고 AI, 프로그래머, 이를 뒷받침하는 회사 또는 정부에 대한 비난의 정도를 묻는 질문을 했습니다. 어떤 경우에는 AI의 이름, 나이, 키, 취미를 설명하여 AI 마인드 지각을 조작했습니다.
실험 전반에 걸쳐, 참가자들은 AI가 더 인간과 비슷한 마음을 가지고 있다고 느낄 때 AI에 상당히 더 많은 비난을 돌리는 경향이 있었습니다. 이런 경우, 참가자들에게 상대적인 비난을 분배하도록 요청했을 때, 그들은 관련 회사에 덜 비난을 돌리는 경향이 있었습니다. 하지만 각 에이전트에 대해 독립적으로 비난 수준을 평가하도록 요청했을 때, 회사에 할당된 비난은 감소하지 않았습니다.
이러한 연구 결과는 AI 마인드 지각이 AI와 관련된 위법 행위에 대한 비난 귀속에 기여하는 중요한 요인임을 시사합니다. 또한 Joo는 AI를 희생양으로 오용하는 것의 잠재적으로 해로운 결과에 대한 우려를 제기하고 AI 비난 귀속에 대한 추가 연구를 요구합니다.
저자는 이렇게 덧붙입니다. "AI가 도덕적 범법 행위에 대해 책임을 질 수 있을까요? 이 연구는 AI를 인간과 유사한 것으로 인식하면 AI에 대한 비난이 증가하는 반면 인간 이해 관계자에 대한 비난은 감소하여 AI를 도덕적 희생양으로 사용하는 것에 대한 우려가 제기된다는 것을 보여줍니다."
출처: https://www.sciencedaily.com/releases/2024/12/241218174943.htm
댓글 없음
아름다운 덧글로 인터넷문화를 선도해 주세요