독자들은 AI가 관련되면, 어느 정도 이해하지 못하더라도 뉴스를 덜 신뢰합니다.

인공지능이 저널리즘에 점점 더 많이 관여함에 따라, 저널리스트와 편집자는 이 기술을 어떻게 사용할지 뿐만 아니라 독자에게 어떻게 그 기술을 공개할지도 고민하고 있습니다. 캔자스 대학의 새로운 연구에 따르면 독자가 AI가 어떤 식으로든 뉴스 제작에 관여한다고 생각할 때, 그들이 AI가 무엇을 기여했는지 완전히 이해하지 못하더라도 뉴스의 신뢰성에 대한 신뢰가 낮아지는 것으로 나타났습니다.

연구 결과에 따르면 독자들은 AI가 뉴스를 만드는 데 사용된다는 사실을 알고 있지만, 부정적으로 보기도 합니다. 하지만 기술이 뉴스에 어떤 식으로 기여했는지 이해하는 것은 복잡할 수 있으며, 독자들이 이해할 수 있는 방식으로 이를 공개하는 방법은 명확하게 해결해야 할 문제라고 연구자들은 말합니다.

"저널리즘에서 AI가 점점 더 집중되는 것은 저널리스트와 교육자들이 이야기하는 질문이지만, 우리는 독자들이 이를 어떻게 인식하는지에 관심이 있었습니다. 그래서 우리는 미디어 바이라인 인식과 그 영향, 즉 사람들이 AI가 생성하는 뉴스에 대해 어떻게 생각하는지에 대해 더 알고 싶었습니다." 윌리엄 앨런 화이트 저널리즘 및 대중 커뮤니케이션 스쿨의 준교수이자 이 주제에 대한 두 연구의 공동 저자인 앨리사 아펠먼의 말입니다.

Appelman과 William Allen White School of Journalism and Mass Communications의 조교수인 Steve Bien-Aimé는 인공 감미료 아스파탐과 그 안전성에 대한 뉴스 기사를 독자들에게 보여주는 실험을 주도했습니다. 독자들은 무작위로 다섯 가지 바이라인 중 하나를 배정받았습니다. 직원 작가가 쓴 바이라인, 인공지능 도구를 사용한 직원 작가가 쓴 바이라인, 인공지능 지원을 사용한 직원 작가가 쓴 바이라인, 인공지능 협업을 사용한 직원 작가가 쓴 바이라인, 인공지능을 사용한 바이라인. 그 외에는 모든 경우에서 기사가 일관성을 유지했습니다.

연구 결과는 두 편의 연구 논문에 게재되었습니다. 두 논문 모두 KU의 Appelman과 Bien-Aimé, Lehigh University의 Haiyan Jia, California State University, Los Angeles의 Mu Wu가 작성했습니다.

한 논문은 독자들이 AI 바이라인을 어떻게 이해하는지에 초점을 맞췄습니다. 독자들은 기사를 읽은 후 받은 특정 바이라인이 무엇을 의미하는지, 그리고 미디어 리터러시와 AI에 대한 태도를 측정하기 위해 의도된 여러 진술에 동의하는지에 대해 설문 조사를 받았습니다. 조사 결과에 따르면, 받은 바이라인에 관계없이 참가자들은 기술이 무엇을 하는지에 대해 광범위한 관점을 가지고 있었습니다. 대부분은 인간이 주요 기여자라고 생각했고, 일부는 AI가 연구 지원으로 사용되었거나 인간이 편집한 초안을 작성하는 데 사용되었을 수 있다고 생각한다고 말했습니다.

결과는 참가자들이 AI 기술이 무엇을 할 수 있는지 이해하고 있으며, 프롬프트가 있는 인간의 안내를 받는다는 것을 보여주었습니다. 그러나 서로 다른 바이라인 조건은 사람들이 읽은 기사에 얼마나 구체적으로 기여했는지에 대해 해석할 수 있는 많은 것을 남겼습니다. 바이라인에 AI 기여가 언급되었을 때, 그것은 독자의 출처와 저자의 신뢰성에 대한 인식에 부정적인 영향을 미쳤습니다. "직원 작가가 작성"이라는 바이라인에서도 독자는 그것이 적어도 부분적으로 AI가 쓴 것이라고 해석했는데, 그 이야기와 관련된 인간의 이름이 없었기 때문입니다.

독자들은 AI의 기여를 해석하는 기술로 의미 파악을 사용했다고 저자는 썼습니다. 이 전략은 이미 배운 정보를 사용하여 익숙하지 않은 상황을 이해하는 방법입니다.

"사람들은 AI가 무엇을 의미하는지에 대해 매우 다양한 생각을 가지고 있으며, AI가 무엇을 하는지 명확히 알지 못할 때 사람들은 자신이 생각했던 AI의 기능에 대한 간극을 메울 것입니다."라고 Appelman은 말했습니다.

결과에 따르면, AI가 기사에 어떤 기여를 했는지와는 상관없이, 뉴스의 신뢰성에 대한 의견은 부정적인 영향을 받았습니다.

연구 결과는 커뮤니케이션 리포트(Communication Reports) 저널에 게재되었습니다.

두 번째 연구 논문은 인간성에 대한 인식이 인식된 AI 기여와 신뢰성 판단 간의 관계를 어떻게 매개하는지 탐구했습니다. AI를 인정하면 투명성이 향상되고 독자는 뉴스에 대한 인간의 기여가 신뢰성을 향상시킨다고 느꼈습니다.

참가자들은 기사 작성에 AI가 관여했다고 생각하는 비율을 보고했는데, 이는 그들이 받은 바이라인 조건에 관계없었습니다. 그들이 더 높은 비율을 제시할수록, 그들의 신뢰성에 대한 판단은 낮아졌습니다. "직원 작가가 쓴"을 읽은 사람들조차도 AI가 어느 정도 관여했다고 느꼈다고 보고했습니다.

"중요한 것은 AI인지 인간인지가 아니라, 인간이 얼마나 많은 일을 했다고 생각하느냐였습니다." Bien-Aimé가 말했습니다. "이것은 우리가 명확해야 한다는 것을 보여줍니다. 우리 분야에서 저널리스트들은 소비자들이 우리가 하는 일을 안다고 가정하는 경우가 많습니다. 그들은 종종 그렇지 않습니다."

연구 결과에 따르면 사람들은 전통적으로 인간이 수행해 온 저널리즘과 같은 분야에서 인간의 기여에 더 높은 신뢰성을 부여합니다. 이것이 AI와 같은 기술로 대체되면 신뢰성에 대한 인식에 영향을 미칠 수 있지만, YouTube가 이전 시청 기록을 기반으로 시청할 동영상을 추천하는 것과 같이 전통적으로 인간이 하지 않는 일에는 영향을 미치지 않을 수 있다고 저자는 말했습니다.

독자들이 인간이 쓴 뉴스를 더 신뢰할 만하다고 생각하는 경향이 있다는 것은 긍정적으로 해석될 수 있지만, 언론인과 교육자 역시 AI를 어떻게 또는 사용하는지 여부를 명확하게 공개해야 한다는 것을 이해해야 합니다. 투명성은 건전한 관행으로, 올해 초 Sports Illustrated가 사람이 쓴 것처럼 제시된 AI 생성 기사를 게재했다는 스캔들에서 드러났습니다. 그러나 연구자들은 AI가 사용되었다고만 말하는 것은 사람들이 AI가 무엇을 했는지 이해하기에 충분히 명확하지 않을 수 있으며, AI가 인간보다 더 많은 기여를 했다고 느낀다면 신뢰성 인식에 부정적인 영향을 미칠 수 있다고 주장합니다.

인식된 저자성과 인간성에 대한 연구 결과는 저널 '컴퓨터와 인간 행동: 인공 인간' 에 게재되었습니다.

두 저널 기사 모두 독자들이 AI가 저널리즘에 기여한 바를 어떻게 인식하는지에 대한 추가 연구가 계속되어야 한다고 저자는 말했고, 저널리즘 분야가 이러한 관행을 공개하는 방식을 개선하면 혜택을 볼 수 있다고 제안했습니다. Appelman과 Bien-Aimé는 다양한 저널리즘 관행에 대한 독자의 이해를 연구했고, 독자는 종종 수정, 바이라인, 윤리 교육 또는 AI 사용과 같은 특정 공개가 저널리스트가 의도한 바와 일치하는 방식으로 무엇을 의미하는지 인식하지 못한다는 것을 발견했습니다.

"저희 연구 프레임워크의 일부는 항상 독자들이 저널리스트가 하는 일을 알고 있는지 평가하는 것이었습니다." Bien-Aimé가 말했습니다. "그리고 저희는 사람들이 저널리스트의 작업을 어떻게 보는지 더 잘 이해하고 싶습니다."


출처: https://www.sciencedaily.com/releases/2024/12/241209122541.htm

댓글 없음

아름다운 덧글로 인터넷문화를 선도해 주세요