새로운 보안 프로토콜은 클라우드 기반 컴퓨팅 중에 공격자로부터 데이터를 보호합니다.

딥러닝 모델은 건강 관리 진단부터 재무 예측까지 많은 분야에서 사용되고 있습니다. 그러나 이러한 모델은 컴퓨팅 집약적이어서 강력한 클라우드 기반 서버를 사용해야 합니다.

클라우드 컴퓨팅에 대한 이러한 의존성은 심각한 보안 위험을 초래합니다. 특히 의료 분야에서는 개인 정보 보호 문제로 인해 병원에서 AI 도구를 사용하여 기밀 환자 데이터를 분석하는 데 주저할 수 있습니다.

이러한 시급한 문제를 해결하기 위해 MIT 연구원들은 빛의 양자적 특성을 활용하여 딥러닝 계산 중에 클라우드 서버로 전송되고 클라우드 서버로부터 수신되는 데이터가 안전하게 유지되도록 보장하는 보안 프로토콜을 개발했습니다.

광섬유 통신 시스템에 사용되는 레이저 광선으로 데이터를 인코딩하는 이 프로토콜은 양자 역학의 기본 원리를 활용하여 공격자가 감지되지 않고 정보를 복사하거나 가로채는 것을 불가능하게 만듭니다.

게다가 이 기술은 딥러닝 모델의 정확도를 손상시키지 않고도 보안을 보장합니다. 연구자는 테스트에서 프로토콜이 강력한 보안 조치를 보장하는 동시에 96%의 정확도를 유지할 수 있음을 입증했습니다.

"GPT-4와 같은 딥 러닝 모델은 전례 없는 기능을 가지고 있지만 엄청난 계산 리소스가 필요합니다. 저희 프로토콜은 사용자가 데이터의 프라이버시나 모델 자체의 독점적 특성을 손상시키지 않고도 이러한 강력한 모델을 활용할 수 있도록 합니다."라고 전자 연구실(RLE)의 MIT 포스트닥이자 이 보안 프로토콜에 대한 논문의 주저자인 크피르 술리마니가 말했습니다.

Sulimany는 MIT 포스트닥인 Sri Krishna Vadlamani, 전 포스트닥이자 현재 NTT Research, Inc.에 있는 Ryan Hamerly, 전기공학 및 컴퓨터 과학(EECS) 대학원생인 Prahlad Iyengar, 그리고 EECS 교수이자 Quantum Photonics and Artificial Intelligence Group과 RLE의 수석 연구원인 Dirk Englund와 함께 논문에 참여했습니다. 이 연구는 최근 Annual Conference on Quantum Cryptography에서 발표되었습니다.

딥러닝 보안을 위한 양방향 도로

연구원들이 집중한 클라우드 기반 계산 시나리오에는 의료 이미지와 같은 기밀 데이터를 보유한 클라이언트와, 딥 러닝 모델을 제어하는 ​​중앙 서버라는 두 당사자가 관련됩니다.

고객은 환자에 대한 정보를 공개하지 않고도 의료 이미지를 기반으로 환자가 암에 걸렸는지 여부 등을 예측하는 데 딥러닝 모델을 사용하려고 합니다.

이 시나리오에서는 예측을 생성하기 위해 민감한 데이터를 보내야 합니다. 그러나 프로세스 중에 환자 데이터는 안전하게 유지되어야 합니다.

또한, 서버는 OpenAI와 같은 회사가 수년과 수백만 달러를 들여 구축한 독점 모델의 어떤 부분도 공개하고 싶어하지 않습니다.

바들라마니는 "두 당사자 모두 숨기고 싶은 게 있다"고 덧붙였습니다.

디지털 계산에서 악의적인 행위자는 서버나 클라이언트에서 보낸 데이터를 쉽게 복사할 수 있습니다.

반면 양자 정보는 완벽하게 복제될 수 없습니다. 연구자들은 무복제 원칙으로 알려진 이 속성을 보안 프로토콜에 활용합니다.

연구자들의 프로토콜에 따라 서버는 레이저 빛을 사용해 딥 신경망의 가중치를 광학 필드로 인코딩합니다.

신경망은 데이터에 대한 계산을 수행하는 상호 연결된 노드 또는 뉴런의 계층으로 구성된 딥 러닝 모델입니다. 가중치는 한 번에 한 계층씩 각 입력에 대한 수학적 연산을 수행하는 모델의 구성 요소입니다. 한 계층의 출력은 최종 계층이 예측을 생성할 때까지 다음 계층에 공급됩니다.

서버는 네트워크의 가중치를 클라이언트에 전송하고, 클라이언트는 개인 데이터에 기반한 결과를 얻기 위한 작업을 구현합니다. 데이터는 서버에서 보호됩니다.

동시에 보안 프로토콜은 클라이언트가 단 하나의 결과만 측정하도록 허용하고, 빛의 양자적 특성으로 인해 클라이언트가 가중치를 복사하는 것을 방지합니다.

클라이언트가 첫 번째 결과를 다음 계층에 공급하면 프로토콜은 첫 번째 계층을 취소하도록 설계되어 클라이언트가 모델에 대해 더 이상 아무것도 알 수 없게 됩니다.

"클라이언트는 서버에서 들어오는 모든 빛을 측정하는 대신, 딥 뉴럴 네트워크를 실행하고 결과를 다음 계층에 공급하는 데 필요한 빛만 측정합니다. 그런 다음 클라이언트는 잔여 빛을 보안 검사를 위해 서버로 다시 보냅니다."라고 Sulimany는 설명합니다.

복제 불가 정리로 인해 클라이언트는 결과를 측정하는 동안 불가피하게 모델에 작은 오류를 적용합니다. 서버가 클라이언트로부터 잔여 빛을 받으면 서버는 이러한 오류를 측정하여 정보가 누출되었는지 확인할 수 있습니다. 중요한 점은 이 잔여 빛이 클라이언트 데이터를 드러내지 않는다는 것이 증명되었다는 것입니다.

실용적인 프로토콜

현대의 통신 장비는 일반적으로 장거리에 걸쳐 방대한 대역폭을 지원해야 하기 때문에 광섬유를 사용하여 정보를 전송합니다. 이 장비는 이미 광학 레이저를 통합했기 때문에 연구자들은 특별한 하드웨어 없이도 보안 프로토콜을 위해 데이터를 빛으로 인코딩할 수 있습니다.

연구원들은 이 접근방법을 테스트한 결과, 서버와 클라이언트의 보안을 보장하는 동시에 딥 러닝 신경망이 96%의 정확도를 달성할 수 있다는 것을 발견했습니다.

클라이언트가 작업을 수행할 때 누출되는 모델에 대한 미미한 정보는 적대자가 숨겨진 정보를 복구하는 데 필요한 정보의 10% 미만에 불과합니다. 반대로 악의적인 서버는 클라이언트의 데이터를 훔치는 데 필요한 정보의 약 1%만 얻을 수 있습니다.

"클라이언트에서 서버로, 서버에서 클라이언트로 두 가지 방법 모두에서 보안이 보장됩니다."라고 Sulimany는 말합니다.

"몇 년 전, MIT의 본 캠퍼스와 MIT 링컨 연구실 간의 분산 머신 러닝 추론 데모를 개발했을 때, 그 테스트베드에서 보여준 수년간의 양자 암호화 작업을 기반으로 물리적 계층 보안을 제공하기 위해 완전히 새로운 것을 할 수 있다는 생각이 떠올랐습니다."라고 잉글런드는 말합니다. "그러나 개인 정보 보호가 보장된 분산 머신 러닝의 이러한 전망을 실현할 수 있는지 확인하기 위해 극복해야 할 깊은 이론적 과제가 많이 있었습니다. Kfir가 우리 팀에 합류하기 전까지는 이것이 가능하지 않았습니다. Kfir는 실험적 구성 요소와 이론적 구성 요소를 모두 독특하게 이해하여 이 작업의 기반이 되는 통합 프레임워크를 개발했습니다."

앞으로 연구자들은 이 프로토콜을 여러 당사자가 데이터를 사용하여 중앙 딥러닝 모델을 훈련하는 페더레이티드 러닝이라는 기술에 어떻게 적용할 수 있는지 연구하고자 합니다. 또한 이 작업을 위해 연구한 고전적 연산이 아닌 양자 연산에도 사용할 수 있으며, 이는 정확도와 보안성 모두에서 이점을 제공할 수 있습니다.

본 연구는 이스라엘 고등교육 위원회와 주커먼 STEM 리더십 프로그램의 지원을 받아 진행되었습니다.


출처: https://www.sciencedaily.com/releases/2024/10/241001142659.htm

댓글 없음

아름다운 덧글로 인터넷문화를 선도해 주세요