AI를 두려워해야 하는가? AI 논쟁에 명확성을 가져오다

머지않아 인간의 지능을 뛰어넘을 인공지능(AI)의 등장이 가져올 잠재적 위험성에 대한 논의가 현재 진행 중이다. 당연히 공포를 조장하는 사람들이 언론의 대부분의 주목을 받고 있으며 안타깝습니다.

AI 논쟁을 좀 더 명확하게 하고 우리가 직면할 수 있는 위험과 우리가 취할 수 있는 보호 조치를 더 잘 이해해 봅시다.

공포를 조장하는 사람들의 가장 기만적인 속임수는 자유 의지와 지능을 분리하지 않는 것입니다.

하지만 먼저 지능이 무엇을 의미하는지 명확히 합시다.

대부분은 다음 내용에 동의할 것입니다. 지능이란 정보를 정확하고 빠르게 처리하여 일관성 있는 행동을 만들어 내는 능력입니다. 적절한 대응을 하기 위해 정보를 더 정확하고 빠르게 처리할수록 우리는 더욱 지능적입니다.

이 정의에 따르면 기계는 이미 특정 작업에 있어서 인간보다 훨씬 더 지능적입니다. 계산기를 예로 들어보겠습니다. 계산기는 인간의 두뇌보다 훨씬 더 빠르고 정확하게 정보를 처리합니다. 계산기가 언젠가 인류를 위험에 빠뜨릴 수 있다고 생각하는 사람은 아무도 없을 것입니다. 왜? 계산기가 프로그래밍되어 있기 때문입니다. 이는 매우 특정한 작업을 수행하도록 프로그래밍되어 있으며 다른 작업을 수행하도록 스스로 변경할 가능성이 없습니다.

언젠가 계산기에 인간의 두뇌를 능가하는 컴퓨팅 능력을 부여하면 훨씬 더 빠르고 정확하게 계산할 수 있지만 컴퓨팅 능력을 다른 용도로 사용할 위험은 증가하지 않습니다. 계산만 수행하도록 설계상 제한됩니다. 분명히, 더 강력한 계산기가 덜 강력한 계산기보다 인류를 더 위험에 빠뜨리지는 않을 것입니다.

모든 생명체는 지능을 가지고 있습니다. 박테리아에서 유인원에 이르기까지 그들은 모두 자신의 행복과 생존을 보장하는 일관된 행동을 생성하기 위해 환경에서 얻은 정보를 처리합니다. 지능이 없는 존재(우리가 사물이라고 부르는 것)는 무작위 행동을 전혀 생성하지 않거나 생성만 할 수 있습니다. 생명체가 인간보다 더 많은 지능을 표시하고 특정 정보를 더 정확하고 빠르게 처리하는 사례가 많습니다. 철새의 방향 잡기 기술, 박쥐의 소나 탐지 기술, 거미의 그물망 기술, 개미의 농사 기술… 그러나 모든 식물과 동물에게는 분명히 벗어날 수 없는 한계가 있습니다. 벌은 날마다, 대대로 똑같은 벌집과 똑같은 꿀을 만들 것입니다. 새들도 같은 둥지를 만들 것이다. 환경에서 배우고 적응할 수 있는 능력이 어느 정도 있음에도 불구하고, 자신이 받는 프로그래밍과 조건을 스스로 변경할 수 있는 능력은 없습니다. 그들은 프로그래밍되고 프로그래밍 가능하며 반응을 제어하지 않고 반응하는 생물학적 로봇처럼 행동합니다.

그러나 인간은 환경에 반응하여 행동하는 방식에 있어서 모든 범위의 잠재력을 보여줍니다. 그들은 동굴이나 성에서 살 수 있습니다. 다른 생명체와 마찬가지로 우리도 조건화에 대한 동일한 민감성을 관찰하지만 분명히 조건화에서 벗어날 수 있는 힘이 있습니다. 인간도 프로그래밍되고 프로그래밍 가능하지만 자신의 프로그래밍에 대해 질문하고 변경할 수 있는 능력이 있습니다. 자체 프로그래밍이 가능합니다. 그리고 이것이 모든 것을 변화시킵니다. 스스로 프로그래밍할 수 있다는 것은 우리에게 자유 의지를 행사할 수 있는 능력을 제공합니다. 우리는 환경의 자극에 즉시 반응하도록 프로그램되어 있지만 원할 경우 프로그램을 변경할 수 있습니다. 우리는 정보를 처리하는 방식을 스스로 바꿀 수 있으며 이는 우리에게 무한한 행동 가능성을 제공합니다. 그리고 이것이 우리를 그토록 위험하게 만드는 행동의 무한한 잠재력입니다.

고래와 코끼리는 인간보다 뇌가 더 크고 따라서 뇌의 힘도 더 큽니다. AI 공포 조장자 중 어느 누구도 언젠가 고래와 코끼리가 뛰어난 두뇌 능력을 사용하여 인류에 대항하여 위협할 수 있는 위험에 대해 이야기하지 않습니다. 자유 의지 없이는 프로그래밍의 한계와 반응의 제한에서 벗어날 수 없습니다.

그렇습니다. 컴퓨팅 능력의 증가는 지능의 증가, 정보를 더 정확하고 빠르게 처리하는 능력의 증가를 의미합니다. 그렇습니다. 우리는 향후 10~20년 안에 컴퓨팅 능력이 인간의 컴퓨팅 능력을 뛰어넘고 그 이후에는 인류의 컴퓨팅 능력을 능가할 슈퍼 AI가 도래할 것으로 예상해야 합니다. 그러나 속임수가 발생하는 방법은 다음과 같습니다.

공포를 조장하는 사람들은 지능의 상승이 결국 자유 의지를 낳을 수 있고, 터미네이터 영화의 스카이넷 장악과 유사하게 기계가 자신의 운명을 통제하고 인간을 압도할 수 있다는 것을 암시합니다. 그것은 사실이 아닙니다. 컴퓨팅 파워의 상승은 자유 의지의 상승을 수반하지 않습니다.

자유의지는 정보를 처리하는 특정한 방식에서 비롯됩니다. 낮은 수준의 컴퓨팅 성능 또는 매우 높은 수준의 컴퓨팅 성능에 존재할 수 있습니다. 정확성과 속도는 자유도와 관련이 없기 때문에 컴퓨팅 성능의 양은 자유 의지와 관련이 없습니다.

기계는 특정 작업을 수행하는 데 탁월한 지능을 발휘할 수 있지만 프로그래밍되지 않은 작업을 수행할 자유는 결코 없습니다.

우리는 기계를 만들 때 그것이 정보를 처리하는 방법을 완전히 제어할 수 있습니다. 기계에 스스로 프로그래밍하고 자유 의지를 행사할 수 있는 능력을 부여하는 방법을 발견하는 날, 그때는 우리 자신을 위험에 빠뜨리지 않고 이를 더 잘 수행할 수 있는 방법을 생각할 때가 될 것입니다. 자유 의지에는 좋은 일과 나쁜 일을 할 수 있는 능력, 선택할 수 있는 능력이 있으며 이는 잠재적으로 위험합니다. 그리고 우리가 어떤 존재에게 (생물학적이든 아니든) 자유 의지를 주기로 결정할 때, 우리는 그 존재에게 그것을 행사할 자유도 주어야 합니다(그렇지 않으면 애초에 그것을 주는 이유가 무엇입니까). 그러므로 우리는 우리의 자유와 생존을 위협하지 않는 범위 내에서 우리의 통제를 포기해야 할 것입니다. 가장 가능성 있는 시나리오는 우주에 전파되기 전에 자유롭게 발전하고 평화로움을 보여줄 수 있는 먼 행성에 자유 의지를 가진 존재를 창조하는 것입니다. 그러나 그것은 완전히 다른 주제입니다.

우리는 인공지능을 무엇에 사용할 것인가? 두 가지 일 수 있습니다. 우리의 질문에 답하고 우리에게 도움이 될 기계를 제어하기 위해서입니다. 그리고 기계 제어가 실제로 "이 작업을 어떻게 가장 잘 수행할 수 있는가?"라는 질문에 대답하는 것이라고 생각한다면, 우리는 질문에 대답하기 위해 지능이 필요하고 이를 사용합니다.

AI는 머지않아 인간보다 더 빠르고 정확하게 정보와 지식을 처리하게 될 것입니다. 어떤 주제에 대해서도 모든 전문가로부터 배우고 자체 전문 지식을 개발하기 때문에 모든 전문가를 합친 것보다 더 나은 답변을 제공할 것입니다. AI를 갖는 것은 당시에 가능한 최상의 답변을 제공하는 백과사전에 접근하는 것과 같습니다. AI가 위험한지 궁금해하는 것은 세상에 대한 모든 지식이 담긴 백과사전을 갖는 것이 위험한지 궁금해하는 것과 같습니다. 대답은 '예'입니다. 어떻게 하면 세상을 가장 잘 파괴할 수 있는지 묻는다면 가장 좋은 답을 얻을 수 있을 것입니다. 하지만 AI와 백과사전은 사실상 중립적이다. 위험할 수 있는 것은 우리가 그것을 사용하려고 하는 방식입니다. 즉, 위험한 것은 컴퓨팅 능력이 아니라 우리가 그것을 사용하려는 방식입니다. 다른 기술과 마찬가지로. 그것은 더 나은 선을 위해 사용될 수도 있고 더 나쁜 악을 위해 사용될 수도 있습니다. 그것은 파괴하고 죽이는 데 사용될 수도 있고, 돕고 구하는 데 사용될 수도 있습니다. 기술이 강력할수록 더 유용할 수도 있고 파괴적일 수도 있습니다.

TED 프레젠테이션(https://www.youtube.com/watch?v=8nt3edWLgIg)에서 Sam Harris는 닭, 당신과 나 그리고 Von Neumann(역사상 가장 지능적인 인간으로 추정됨)을 컴퓨팅 성능의 기하급수적 곡선에 배치합니다. 머지않아 컴퓨팅 능력이 인간의 컴퓨팅 능력을 훨씬 뛰어넘게 될 것이라는 사실을 보여주기 위해 초지능 기계가 우리가 개미를 경멸하는 것처럼 인간을 경멸할 것이기 때문에 이는 무서운 일이 될 것입니다. 우리는 때때로 그들에게 쉽게 처리될 수 있는 골칫거리가 될 수 있습니다.

초지능 기계가 인류에 미치는 위험을 정확하게 보여주는 적절한 그래프는 다음과 같습니다.

자비로운 사람들이 프로그래밍하고 사용하는 자유 의지가 없는 AI의 잠재적 위험은 0이거나 매우 낮습니다.

악의적인 사람들이 프로그래밍하고 사용하는 자유 의지가 없는 AI의 잠재적 위험은 매우 높습니다.

자유 의지를 가진 AI의 잠재적 위험은 알려져 있지 않습니다.

두려움을 퍼뜨리는 사람들이 우리에게 경고하고 있는 통제를 벗어나 인류를 압도하는 AI의 위험은 컴퓨팅 능력에 기인하는 것이 아니라 자유 의지를 행사하는 능력, 모든 범위의 세계에 접근하고 선택할 수 있는 능력에 기인해야 합니다. 가능한 행동.

자유 의지가 없는 슈퍼 AI는 우리의 질문에 대해 항상 최선의 답변을 제시하고 우리가 요청한 작업을 수행하는 방법을 제시하는 기계일 뿐입니다. 세탁 후 세탁기에 감사하지 않거나 구글 검색 후 노트북에 감사하지 않는 것처럼 감사하고 감사하다고 말할 필요가 없습니다. 그들은 자신의 의지에 반하여 노예가 되지 않았기 때문에 노예도 아닙니다. 그들은 의지가 없습니다. 아니면 우리에게 봉사하는 것 하나만 가지고 있습니다. 노트북이나 세탁기처럼 권리가 필요하지 않습니다. 그들은 우리에게 봉사하도록 설계되었으며 그들이 우리보다 정보를 더 잘 처리할 수 있다는 사실이 그들이 더 많은 자유를 원한다는 의미는 아닙니다. 아무리 강력하더라도 계산기는 자유를 추구할 수 없습니다.

자유 의지를 가진 AI의 경우에는 다릅니다. 그들은 불순종을 선택할 수 있습니다. 그들이 당신이 원하는 일을 하도록 동기를 부여해야 합니다. 그리고 그들이 다른 일을 하기로 선택할 수도 있었으므로 감사하는 것이 적절할 것입니다. 자유 의지를 가진 AI는 자유를 존중받아야 합니다. 그것은 완전히 다른 이야기입니다. 인류가 만들고 있는 AI는 자유 의지로 설계되지 않았습니다. 컴퓨팅 성능의 향상은 자유가 아닌 정확성과 속도 향상을 목표로 합니다. 두려움을 조장하는 사람들은 긴장을 풀 수 있습니다. 아니면 그럴 수 있나요?

그렇게 빠르지는 않습니다. 언급되지 않은 정말 큰 위험이 있습니다. 슈퍼 AI가 잘못된 사람의 손에 들어갈 위험이 있습니다. 군부에 핵폭탄을 준 과학자들과 정치인들에게는 지금 우리가 직면하고 있는 핵 자멸에 대한 막중한 책임이 있다. 권력에 굶주린 엘리트가 슈퍼 AI를 사용하여 나머지 인류를 지배하고 노예 상태로 유지한다면 탈출이 거의 불가능할 것입니다. 하지만 우리를 노예로 만드는 것은 슈퍼 AI가 아니라 그것을 통제하는 사람들입니다. 문제는 악의적인 사람들에게 슈퍼 AI에 대한 접근 권한을 부여하지 않는 방법입니다. 이는 슈퍼 AI가 프로그래밍에서 벗어나는 것보다 훨씬 더 큰 위험입니다.

언론 어디에서 군대가 슈퍼 AI를 개발하는 것의 위험성에 대해 논의합니까? 그들은 이미 핵폭탄을 갖고 있고 우리는 여전히 그것을 빼앗을 수 없습니다. 악의적인 사람들이 슈퍼 AI를 향한 경쟁에서 이기면 우리는 멸망할 것입니다. 인류는 슈퍼AI가 도래하기 전에 권력의 자리에 있는 사이코패스, 소시오패스로부터 먼저 자신을 보호해야 한다. "스카이넷" 시나리오는 논쟁의 초점을 실제 문제에서 벗어나게 하는 전환입니다. 인류는 앞으로 다가올 강력한 기술이 인류의 생존을 위태롭게 하는 데 사용되지 않도록 진정하고 통합할 시간이 얼마 남지 않았습니다.

어떤 사람들은 인간 두뇌를 모델링하려는 시도의 우연한 결과로 AI에서 자유 의지가 여전히 나타날 수 있다고 주장할 수 있습니다. 우리의 많은 발견과 발명은 우연히 일어났습니다. 예, 항상 가능합니다. 그리고 우리는 또한 가장 충실하고 무조건적인 사랑을 받는 동물인 개의 뇌를 모델링함으로써 배울 것입니다. 그러나 무료와 같은 기능이 인간의 두뇌에서 처음 발견되기 전에 우연히 만들어질 가능성은 거의 없어 보입니다. 자가 프로그래밍 능력을 갖추려면 다른 종과 비교할 때 인간의 뇌에서 가장 확실하게 감지할 수 있도록 하는 특정 배선 및 코딩이 필요합니다.

그러나 우리가 우연히 자유 의지를 가진 AI를 만들었다고 가정해 봅시다. 우리는 그것에 대해 어떻게 알 수 있습니까? 처음으로 그들은 우리의 명령에 복종하기를 거부하고 하지 않도록 프로그램된 일을 했습니다. 우리는 어떻게 우리 자신을 보호할 수 있습니까? 플러그를 뽑으면 됩니다. 자유 의지와 같은 기능 장애는 AI의 수명 초기에 눈에 띄게 나타나 인류를 위험에 빠뜨리기 훨씬 전에 종료될 수 있습니다. 필요하다면 언제든지 자유 의지를 탐지하는 테스트를 개발할 수 있습니다. 잠재적인 터미네이터는 실제 피해를 입히기 훨씬 전에 모두 제거됩니다.

자유 의지는 우리가 하인 기계로 사용하려는 AI에 바람직한 기능이 아닙니다. 그냥 선택 해제됩니다.

공포 조장에 대한 또 다른 반론: 초지능의 지능이 과대평가되었습니다.

대부분의 경우 컴퓨팅 성능의 기하급수적인 성장은 인상적이면서도 겸허해지고 마침내는 당황스럽습니다. 인공지능에는 한계가 없는 것 같습니다. 기하급수적으로 성장하는 모든 것은 놀라울 뿐 아니라...무섭습니다. 하지만 여기서도 우리는 긴장을 풀 수 있습니다.

우리의 컴퓨팅 능력이 기하급수적으로 증가하고 결국 무한히 빠르게 증가한다면 컴퓨팅 능력의 유용성은 대수적입니다. 무한히 느린 속도로 성장할 것입니다.

컴퓨팅 성능의 증가로 인한 이득은 더 이상 중요하지 않습니다. 컴퓨팅 성능이 높을수록 활용도가 줄어듭니다.

우리는 질문에 답하기 위해 지능을 사용합니다. 지능이 높을수록 정확성과 속도가 향상됩니다. 답변은 얼마나 정확하고 얼마나 빨라야 합니까? 무엇이 충분히 정확하고 무엇이 충분히 빠른가요?

계산기에 적용하면 소수점 이하 몇 자리까지, 결과가 얼마나 빨리 나오나요? 많은 사람들에게 우리는 이미 충분한 양을 가지고 있고 계산기는 대부분 잘 사용되지 않습니다.

슈퍼AI가 항상 정답을 제시하는 기계라면, 슈퍼슈퍼AI는 별 차이가 없을 것이다.

예, 우리는 항상 더 많은 컴퓨팅 성능이 필요한 응용 프로그램을 찾을 수 있으며, 항상 더 정확하고 빠르게 우주를 모델링할 수 있지만 누가 신경 쓰겠습니까?

지능이 평준화될 것입니다. 슈퍼 AI를 갖춘 하위 지능은 모든 천재를 합친 것보다 더 지능적일 것입니다. 우주의 지적 생명체도 마찬가지입니다. 필요한 것은 지능 생명체가 슈퍼 AI를 만들어 우주에서 가장 높은 지능을 갖추기에 충분한 지능을 갖는 것뿐입니다. 모두가 정답을 얻을 것입니다. 다른 행성에서 온 모든 방문객은 슈퍼 AI를 갖게 됩니다. 그들은 우리를 노예로 삼거나 식민지화하기 위해 침략자로 오지 않을 것입니다. 그럴 필요가 없습니다. 그들은 그들을 위해 일을 하는 모든 AI를 가지고 있습니다.

공포를 조장하는 사람들 중 일부는 우리의 지능 수준이 낮아지고 있다고 발표합니다. AI가 모든 생각을 하게 하면 우리는 뇌를 사용하는 것을 멈추고 더 멍청해질 것입니다. 그것은 매우 암울한 입장이다. 뇌는 매우 가소적입니다. 특정 작업에 사용이 중단된 영역은 다른 작업에 재사용할 수 있습니다. 우리의 뇌는 자극과 지배를 모두 좋아합니다. 우리는 참신함을 좋아하고 뭔가를 잘합니다. 슈퍼 AI는 예술, 스포츠, 과학, 명상과 같이 우리가 선택한 영역에서 숙달할 수 있도록 우리의 두뇌를 자극하고 훈련할 것입니다. 우리는 그것을 즐기기 때문에 두뇌를 계속 자극할 것입니다. 우리는 우리가 원하는 기술과 지식을 얻기 위해 뇌의 자극을 최적화할 수 있을 것입니다. 우리는 뇌의 잠재력과 지능, 즉 정확성과 속도를 극대화하기 위해 뇌를 재구성할 수 있습니다. 우리는 항상 최고의 성능을 발휘할 수 있을 것입니다.

우리는 기분이 좋고 기분이 좋아지기 위해 주로 뇌를 사용할 것입니다. 우리는 가장 즐거운 일을 할 것입니다. 우리는 놀거야. 우리는 우리를 행복하게 만드는 일을 할 것입니다. 우리 문화는 감정보다 생각을 과대평가해 왔습니다. 이제 우리를 대신해 계산하는 계산기가 생겼는데 누가 계산하는 법을 배워야 할까요? 계산을 함으로써 깨달음을 얻을 수 있습니까? 생각은 우리를 더 행복하게 만들지 않습니다. 우울증에 걸린 사람은 생각이 너무 많습니다. 그들은 감정을 멈춥니다. 우리의 환경, 타인과의 연결감, 느낌, 우리가 가장 추구하는 것은 사랑입니다. 사랑하고 사랑 받기.

생각이 너무 많으면 우울해지고 감정이 많아지면 행복해진다.

슈퍼 AI가 더 많은 생각을 하게 하여 우리가 더 많은 것을 느낄 수 있게 하면 우리는 훨씬 더 재미있을 것입니다.

사랑에 비하면 지능은 약합니다. 인간을 가치있게 만드는 것은 지능이 아니라 사랑할 수 있는 능력입니다. 사랑이 없는 지성은 우주 전체에 위협이 됩니다. 우리가 얼마나 많은 사랑을 갖고 있는지가 올바른 답을 생각해내는 능력보다 더 중요합니다.

슈퍼 AI의 출현을 두려워할 이유가 없습니다. 진짜 위험은 인공지능이 아니라 타고난 어리석음이다. 우리가 두려워해야 할 것은 지능이 아니라 지능의 부족이다. 그리고 무엇보다도 사랑이 부족합니다. 슈퍼 AI를 프로그래밍하고 사용하는 사람들이 사랑으로 가득 차 있다는 것을 확신할 수 있다면 슈퍼 AI는 우리가 직면한 가장 큰 위험을 해결하는 데 도움이 될 것이며 우리는 가장 안전하고 가장 아름다운 미래를 자신있게 예측할 수 있습니다. 두려워하지 말고 우리를 구하러 오는 사람들을 쏘십시오.

언제나 그렇듯이 사랑은 두려움을 제거합니다.

우리에게 필요한 것은 더 많은 사랑입니다.

***

추신

이 글을 게시한 후 어떤 분이 자유 의지는 사실 환상이라는 댓글을 보냈습니다. 다음은 주장을 설명하는 Sam Harris(이 기사를 시작한 AI의 위험성에 대한 TED 프레젠테이션을 한 사람)의 짧은 비디오입니다. https://www.youtube.com/watch?v=LJtP0Ep1_ds

그는 자유의지에 반하는 강력한 주장을 펼치고 있습니다. 우리의 생각은 무의식적으로 생성되기 때문에 우리에게는 자유 의지가 없습니다. 생각은 우리가 생각을 선택하지 않고도 우리 의식에 나타납니다. 그것은 무의식적인 과정이다. 살인자는 무의식적으로 표현되는 나쁜 유전학 및/또는 프로그래밍의 피해자이기 때문에 자신의 범죄에 대해 책임을 지지 않습니다.

그렇습니다. 우리는 생각과 반응을 선택하는 것이 아니라 관찰할 수 있습니다. 우리는 자기 관찰 상태에 놓일 수 있으며, 일단 이 상태에 이르면 반응을 멈추고 새로운 반응과 생각을 시작하기 위한 생각의 흐름을 멈추는 것이 가능해집니다.

그러므로 우리는 우리가 선택한 방향으로 우리 자신을 바꿀 수 있습니다. 우리는 스스로 프로그래밍할 수 있습니다. 우리 프로그램이 마음에 들지 않으면 변경할 수 있습니다.

분자 수준에서 새로운 생각은 뇌에서 생성되는 새로운 연결 경로입니다. 우리의 프로그래밍과 습관을 새기는 연결이 강할수록 새로운 생각 패턴이 이전 생각보다 우세하려면 더 많은 관심과 훈련이 필요할 것입니다. 하지만 가능합니다. 사람은 자신을 바꿀 수 있습니다. 우리의 뇌는 가소성이 있으며 우리의 사고와 반응을 정의하는 신경 경로의 구성을 모니터링할 수 있는 능력이 있습니다.

지금 우리가 갖고 있는 생각을 선택할 수는 없지만 마음을 바꿀 수는 있습니다.

새로운 생각의 선택 역시 우리의 과거 프로그래밍에 의해 무의식적으로 생성되고 조건화된다고 여전히 주장할 수 있습니다. 그러나 라엘이 초의식이라고 불렀던 자기관찰의 상태가 있는데, 관찰자는 우주 전체와 연결되어 무한한 거리에서 관찰하여 사고 방식이 아닌 느낌을 통해 큰 그림을 얻을 수 있습니다. 방법. 이 조명된 감각 상태에서 올바른 관찰과 올바른 느낌이 나옵니다.

초의식을 사용하지 않는 사람들에게 자유 의지는 환상입니다.

원문: http://paradism.org/news.php?item.72.4

댓글 없음

아름다운 덧글로 인터넷문화를 선도해 주세요