최종편집 : 2020-10-12 14:02 (월)
인텔-조지아공과대, AI와 ML 보안 개선에 맞손
상태바
인텔-조지아공과대, AI와 ML 보안 개선에 맞손
  • 김주연 기자
  • 승인 2020.04.13 16:30
  • 댓글 0
이 기사를 공유합니다

인텔은 조지아공과대학교와 함께 미 국방성 산하 방위고등연구계획국(DARPA)이 진행하는 GARD(Guaranteeing AI Robustness against Deception) 프로그램에 공동으로 참가한다./인텔

대부분의 반자율 혹은 자율 시스템은 인공지능(AI)과 머신러닝(ML) 알고리즘으로 동작한다. 하지만 AI와 ML도 사이버 공격에서 자유로울 수 없다. AI와 ML의 안정성 및 보안을 지속적으로 개선해야하는 이유다.

인텔은 조지아공과대학교와 함께 미 국방성 산하 방위고등연구계획국(DARPA)이 진행하는 GARD(Guaranteeing AI Robustness against Deception) 프로그램에 공동으로 참가한다고 13일 밝혔다.

GARD 프로그램은 ML 모델을 겨냥한 기만 공격을 방어하기 위해 수백만 달러 상당의 자금을 기반으로 출범했으며, 4년간 진행된다. 인텔은 GARD 프로그램의 주계약업체다.

적대적 공격은 데이터에 대한 ML 알고리즘의 분석을 속이거나 변경하거나 혹은 손상시키려 한다. 때문에 예상치 못하거나 기만적인 상호작용이 있을 때 안정성 및 보안을 지속적으로 개선해야한다.

예를 들어, AI가 픽셀 단위에서 오분류와 오역을 하면 이미지 전체에 대한 오역 및 잘못된 분류로 이어질 수 있다. 또 실제 사물에 대한 미세한 수정으로 인해 AI 인식 시스템이 다른 결과값을 내놓을 수도 있다. 

현재의 방어 체계는 사전 정의된 특정 적대적 공격을 막는 것에 집중돼있지만, 사전 정의 범주 외 공격에는 취약하다.

GARD는 ML 모델이 데이터를 잘못 분류하거나 해석할 수 있는 시나리오를 기반으로 가능한 많은 공격을 다루는 광범위한 방어 체계를 개발, 방어 체계에 접근하고자 한다. 

GARD 프로그램의 목표는 시스템 취약성을 식별하고 속성을 분류해 시스템 건전성을 향상시킬 뿐 아니라 효과적인 방어를 가능하게 하는 이론적 ML 시스템 기반을 확립하는 것이다. 

인텔과 조지아공과대학교는 프로그램 1단계에서 공간적, 시간적, 의미론적 일관성을 기반으로 정지 화상 및 영상 자료를 통한 객체 탐지 기술을 강화하고 있다.

제이슨 마틴(Jason Martin) 인텔 랩스 수석 엔지니어 겸 DARPA GARD 프로그램 인텔 수석 조사관은 "인텔과 조지아공과대학은 AI와 ML의 취약성에 대한 생태계 공동의 이해와 완화 능력을 증진시키기 위해 협력하고 있다”며 “일관성 기법에서 혁신적인 연구를 통해 개체 탐지를 강화하고 적대적 공격에 대응할 수 있는 능력을 향상시키기 위한 접근방법을 개발하고 있다”고 말했다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.
주요기사