Microsoft에서 인공 지능 및 기계 학습의 미래 보안

작성자: Andrew Marshall, Raul Rojas, Jay Stokes 및 Donald Brinkman

Mark Cartwright 및 Graham Calladine님께 특히 감사드립니다

요약

AI(인공 지능) 및 ML(기계 학습)은 이미 사람들의 작업, 사회화 및 생활 방식에 큰 영향을 줍니다. AI/ML을 기반으로 구축된 제품 및 서비스의 사용이 증가함에 따라 고객 및 해당 데이터 뿐만 아니라 AI, 트롤링 및 추출로부터 AI와 알고리즘을 보호하기 위해 특수한 작업을 수행해야 합니다. 이 문서는 AI를 기반으로 하는 제품 및 운영 온라인 서비스 설계에서 학습한 Microsoft의 보안 레슨을 공유합니다. 이 영역이 어떻게 전개될지 예측하는 것은 어렵기는 하지만 지금 해결해야 할 조치 가능한 문제가 있다고 결론을 내렸습니다. 또한 고객 및 데이터 보안의 장기적인 안전을 보장하기 위해 기술 업계에서 미리 받아야 하는 전략적 문제가 있음을 발견했습니다.

이 문서는 AI 기반 공격이나 악의적 사용자가 활용하는 AI에 대한 정보를 포함하지 않습니다. 대신 Microsoft 및 업계 파트너가 개별 트롤 또는 전체 집단에 의해 수행되는 경우에도 매우 정교하고 창의적이며 악의적인 공격으로부터 AI 기반 제품 및 서비스를 보호하기 위해 해결해야 하는 문제에 중점을 둡니다.

이 문서는 AI/ML 공간에 고유한 보안 엔지니어링 문제에 중점을 둘 수 있지만 InfoSec 도메인의 광범위한 특성으로 인해 여기서 설명하는 문제 및 결과는 개인 정보 및 윤리의 도메인과 일치한다는 것을 이해하고 있습니다. 이 문서에는 기술 업계에 대한 전략적 중요도의 과제가 강조 표시되어 있으므로 이 문서의 대상 그룹은 업계 전체에서 보안 엔지니어링 리더십에 해당합니다.

연구의 초기 결과로, 다음과 같은 점을 알 수 있습니다.

  • 이 문서에서 설명하는 보안 문제 유형을 완화하기 위해 기존 보안 방법에 대한 AI/ML 관련 피벗이 필요합니다.

  • 기계 학습 모델은 대개 악의적인 입력과 무해한 비정상 데이터를 구분할 수 없습니다. 구성되지 않고, 중용화되지 않은 공용 데이터 집합에서 파생되는 학습 데이터의 상당 부분으로,타사 기여에 공개됩니다. 공격자는 자유롭게 기여할 수 있는 경우 데이터 세트를 손상시키지 않아도 됩니다. 시간이 지남에 따라 데이터 구조/형식이 올바른 상태로 유지되는 경우 신뢰도가 낮은 악성 데이터는 신뢰도가 높은 신뢰할 수 있는 데이터가 됩니다.

  • 심층 학습 모델에서 사용할 수 있는 숨겨진 분류자/뉴런의 많은 계층을 제공하는 경우 이러한 결정에 도달하는 방법에 대한 중요한 이해 없이 AI/ML 의사 결정 프로세스 및 알고리즘의 출력에 너무 많은 신뢰가 적용됩니다. 이러한 난독 처리로 인해 "작업을 표시"하는 데 문제가 발생하는 경우에는 AI/ML 발견을 보호하기가 어려워집니다.

  • AI/ML은 의약품 및 기타 산업에서 중요한 의사 결정 프로세스를 지원하는 데 점점 더 많이 사용되고 있습니다. AI/ML의 높은 가치의 보고 기능을 제공하지 않으면 이러한 높은 가치의 결론은 공공 의견의 법정 및 법정에서 방어할 수 없습니다.

이 문서의 목표는 (1) AI/ML 공간에 고유한 보안 엔지니어링 문제를 강조 표시하고 (2) 새로운 위협에 대한 몇 가지 초기 생각과 관찰 및 (3) 잠재적인 수정 사항에 대한 초기 생각을 공유하는 것입니다. 이 문서에서 해결해야 할 몇 가지 문제는 업계에서 다음 2년 이내에 시작해야 하는 문제입니다. 다른 문제는 이미 지금 해결하고 있는 문제입니다. 이 문서에서 다루는 영역에 대한 심층적인 조사가 없으면 향후 AI가 수학 수준에서 AI 의사 결정 프로세스를 신뢰하거나 이해하고 수정할 수 없으므로 향후 AI가 블랙박스가 될 위험이 있습니다.[7]. 보안 측면에서 이는 실질적으로 통제를 잃고, 인공 지능[4, 8]에 대한 Microsoft의 지침 원칙으로부터 멀리 떨어짐을 의미합니다.

새로운 보안 엔지니어링 과제

기존 소프트웨어 공격 벡터는 여전히 해결해야 하지만 AI/ML 위협 환경에서 충분한 검사를 제공하지 않습니다. 기술 업계는 새로운 프레임워크를 구축하고 AI/ML 기반 서비스의 디자인 및 작업에서 다양한 주소 차이를 채택하여 마지막 세대 솔루션에 대한 차세대 문제를 방지해야 합니다.

  1. 아래에서 설명하는 것처럼 보안 개발 및 운영에는 AI와 해당 컨트롤의 데이터를 보호할 때 복원력 및 판단의 개념이 포함되어야 합니다. AI 관련 피벗은 인증 영역, 업무 분리, 입력 유효성 검사 및 서비스 거부 완화에 필요합니다. 이러한 영역에 대한 투자 없이 AI/ML 서비스는 모든 기술 수준의 악의적 사용자와 계속해서 힘든 싸움을 해야 합니다.

  2. AI는 다른 사용자와의 상호 작용에 바이어스되지 않고 다른 사용자의 바이어스를 인식할 수 있어야 합니다. 이를 수행하려면 바이어스, 스테레오타입, 언어 및 기타 문화적 구문을 집합적으로 이해해야 합니다. 이러한 이해는 사회 공학 및 데이터 집합 변조 공격으로부터 AI를 보호하는 데 도움이 됩니다. 제대로 구현된 시스템은 실제로 이러한 공격으로부터 더 강력해지고 확장된 이해를 다른 AI와 공유할 수 있습니다.

  3. 기계 학습 알고리즘은 결과에 부정적인 영향을 주는 학습 데이터를 거부하여 무해한 "Black Swan" 이벤트[1]에서 악의적으로 도입된 데이터를 파악할 수 있어야 합니다. 그렇지 않으면 학습 모델은 항상 공격자 및 트롤의 게임에 취약합니다.

  4. AI에는 포렌식 기능이 기본적으로 있어야 합니다. 이를 통해 기업은 고객에게 AI에 대한 투명성 및 책임을 제공하여 해당 작업을 정확하게 확인할 수 있을 뿐 아니라 법적으로 방어할 수도 있습니다. 이러한 기능은 "AI 침입 감지"의 초기 형식으로도 작동하므로 엔지니어가 분류자에 의해 결정된 정확한 시점, 영향을 받는 데이터 및 데이터의 신뢰할 수 있는 시기를 결정할 수 있습니다. 이 영역의 데이터 시각화 기능은 신속하게 진행되고 있으므로 엔지니어가 이러한 복잡한 문제[11]에 대한 근본 원인을 식별하고 해결하는 데 도움을 줍니다.

  5. AI는 사람이 인식하지 못하는 경우에도 중요한 정보를 인식하고 보호해야 합니다. AI의 풍부한 사용자 환경에는 학습을 위한 방대한 양의 원시 데이터가 필요하므로 고객은 "과도한 공유"를 계획해야 합니다.

위협 및 잠재적 완화를 비롯한 이러한 각 영역에 대해서는 아래에서 자세히 설명합니다.

AI를 사용하려면 기존 보안 디자인/보안 운영 모델에 대한 새로운 피벗이 필요합니다(복원력 및 판단의 도입).

AI 설계자는 중요한 데이터의 기밀성, 무결성 및 가용성을 보장하고, AI 시스템이 알려진 취약점을 사용하지 않도록 하고 시스템 또는 사용자 데이터에 대한 악의적인 동작으로부터의 보호, 검색 및 대응에 대한 제어를 제공해야 합니다.

악의적인 공격으로부터 방어하는 일반적인 방법은 음성/비디오/이미지 기반 공격이 현재 필터 및 방어를 피할 수 있는 이 새로운 패러다임에서 동일하게 적용되지 않습니다. 새로운 남용에서 AI를 악용하지 못하도록 방지하기 위해 새로운 위협 모델링 측면을 탐색해야 합니다. 이는 퍼지 또는 입력 조작을 통한 기존 공격 노출 영역을 식별하는 것 보다 훨씬 더 많습니다(이러한 공격에는 자체 AI 관련 피벗이 포함되어 있습니다). AI/ML 공간에 고유한 시나리오를 통합해야 합니다. 이 중에서 핵심은 음성, 비디오 및 동작과 같은 AI 사용자 환경입니다. 이러한 환경과 관련된 위협은 일반적으로 모델링되지 않았습니다. 예를 들어 비디오 콘텐츠는 이제 물리적 효과를 유도하기 위해 조정됩니다. 또한 연구에서 오디오 기반 공격 명령을 만들 수 있다는 것[10]을 보여 주었습니다.

범죄자, 악의적 사용자 및 트롤의 예측 불가능성, 창의적인 성과 악의적 동작 의미에는 복원력결정 값을 AI에 주입해야 합니다.

복원력: 시스템은 비정상적인 동작을 식별하고 AI 시스템 및 특정 작업과 관련하여 허용되는 동작의 일반 경계 외부에서 조작 또는 강제 변환을 방지할 수 있어야 합니다. AI/ML 공간에 해당하는 새로운 유형의 공격입니다. 시스템은 지역 법률, 윤리 및 커뮤니티 작성자가 보유하고 있는 값과 충돌하는 입력을 저항하도록 설계되어야 합니다. 즉, 상호 작용이 "스크립트 해제"로 전환되는 경우를 결정하는 기능을 AI에 제공합니다. 다음 방법으로 이 작업을 수행할 수 있습니다.

  1. 비슷한 사용자의 다양한 대량 클러스터에 의해 설정된 표준에서 파생되는 개별 사용자를 파악합니다. 예를 들어 빠르게 입력하거나 너무 빠르게 응답하거나 절전 모드를 설정하지 않거나 다른 사용자가 시스템을 트리거하는 사용자는 그렇지 않습니다.

  2. 악의적인 의도 검색 공격과 네트워크 침입 킬 체인의 시작을 나타내는 것으로 알려진 동작의 패턴을 식별합니다.

  3. 여러 사용자가 조정된 방식으로 작동하는 경우를 언제든지 인식합니다. 예를 들어 여러 사용자가 동일한 설명할 수 없지만 의도적으로 만든 쿼리를 실행하고, 사용자 수가 갑자기 급증하거나, AI 시스템의 특정 부분에 대한 활성화가 갑자기 급증합니다.

AI가 동일한 트릭에 다시 넘어가지 않도록 AI의 버그를 수정하고 유지해야 할 수 있으므로 이러한 유형의 공격을 서비스 거부 공격과 함께 고려해야 합니다. 중요한 것은 감정 분석 API[5]를 사용하는 데 사용되는 것과 같이 대응책의 존재에 악의적인 의도를 식별하는 기능입니다.

판단: AI는 액세스 권한이 있는 모든 정보에 대한 책임이 있고 신뢰할 수 있는 관리인이어야 합니다. Microsoft는 AI 관계에서 특정 수준의 신뢰를 확실하게 할당합니다. 어느 시점에서 이러한 에이전트는 다른 에이전트 또는 다른 사람과 이야기합니다. Microsoft는 AI 시스템에 대해 공유해야 하는 제한된 형식으로만 공유하여 다른 에이전트가 자동으로 작업을 완료할 수 있도록 신뢰해야 합니다. 또한 사용자 대신 개인 데이터와 상호 작용하는 여러 에이전트에는 각 에이전트에 대한 전역 액세스가 필요하지 않습니다. 여러 AI 또는 봇 에이전트와 관련된 모든 데이터 액세스 시나리오는 필요한 최소 범위에 대한 액세스 수명을 제한해야 합니다. 또한 웹 브라우저에서 현재 사이트 차단을 허용하는 것처럼 사용자는 데이터를 거부하고 특정 회사 또는 로캘의 에이전트 인증을 거부할 수 있어야 합니다. 이 문제를 해결하려면 초기 연도에 클라우드 컴퓨팅을 사용하는 클라우드 기반 사용자 인증 투자와 같은 에이전트 간 인증 및 데이터 액세스 권한에 대해 새로운 사항을 고려해야 합니다.

AI는 자신에게 바이어스되지 않고 다른 사용자의 바이어스를 인식할 수 있어야 합니다.

AI는 특정 개인 그룹 또는 유효한 결과에 대해 판별 없이 공평하고 포괄적이어야 하지만, 이를 위해 바이어스를 선천적으로 이해해야 합니다. 바이어스, 트롤링 또는 풍자를 인식하도록 학습하지 않은 경우 AI는 기껏해야 값싼 유머를 만들어내거나 최악의 경우 고객에게 피해를 일으킬 수 있습니다.

이 정도 수준에 도달하면 "좋은 사람들에게 AI가 나쁜 것이라고 가르치게" 됩니다. 왜냐하면 문화적 바이어스에 대한 이해를 효과적이고 종합적으로 발전시킬 수 있기 때문입니다. AI는 과거에 상호 작용이 부정적이었던 사용자를 인식할 수 있어야 하며, 이는 아이가 낯선 사람을 조심스럽게 대하도록 부모가 가르치는 하는 것과 비슷합니다. 이를 위한 가장 좋은 방법은 AI를 제어/중재/제한된 방식으로 트롤에 노출하는 것입니다. 이러한 방식으로 AI는 순수한 사용자가 "맛을 보는 것"과 실제로 악의적인 행동/트롤링 간의 차이를 배울 수 있습니다. 트롤은 AI에 대한 유용한 학습 데이터 스트림을 제공하여 향후 공격으로부터 더욱 탄력적으로 대처할 수 있도록 합니다.

또한 AI는 학습하는 데이터 집합에서 바이어스를 인식할 수 있어야 합니다. 이는 문화적이거나 지역적일 수 있으며 특정 그룹 사람들의 언어를 포함하거나 특정 이해 집단의 주제/견해를 담고 있을 수 있습니다. 악의적으로 도입된 학습 데이터와 마찬가지로 AI는 자체 유추 및 추론에 대한 이 데이터의 영향을 복원해야 합니다. 이 핵심에는 범위 확인과 유사한 정교한 입력 유효성 검사 문제가 있습니다. 버퍼 길이와 오프셋을 처리하는 대신 버퍼 및 범위 검사는 광범위한 소스에서 빨간색으로 플래그가 지정된 단어입니다. 단어를 사용하는 대화 기록과 컨텍스트도 유용합니다. 심층 방어 방법이 기존 웹 서비스 API 프런트엔드에 대한 계층 보호에 사용되는 것처럼 여러 보호 계층을 바이어스 인식 및 방지 기술에 활용해야 합니다.

Machine Learning 알고리즘은 무해한 "Black Swan" 이벤트에서 악의적으로 도입된 데이터를 구분할 수 있어야 합니다.

공격자가 학습 데이터 집합 및 사용 중인 모델에 대한 이해를 모두 포함하는 서비스에서의 ML 모델/분류자 변조 및 추출/도난의 이론적 잠재력에 많은 백서가 게시되었습니다[2, 3, 6, 7]. 여기에서 떠오르는 문제는 학습 집합 데이터를 제어하는 공격자가 모든 ML 분류자를 속일 수 있다는 것입니다. 공격자에게는 기존 학습 집합 데이터를 수정하는 기능이 필요하지 않으며, 이러한 데이터를 추가하고 해당 입력을 "신뢰할 수 있는" 상태로 만들어야 합니다.

이 학습 데이터 공급망 문제는 분류자 동작에 부정적인 영향을 미치기 전에 악의적으로 도입된 학습 데이터 또는 사용자 입력을 식별하고 거부하는 "의사 결정 무결성"이라는 개념에 대해 소개합니다. 여기에서 설명하는 이유는 신뢰할 수 있는 학습 데이터가 신뢰할 수 있는 결과/결정을 생성할 확률이 높기 때문입니다. 계속해서 학습하고 신뢰할 수 없는 데이터를 복원하는 것은 매우 중요하지만, 해당 데이터의 악의적인 특성은 학습 데이터에 대한 신뢰도 높은 본문의 일부가 되기 전에 분석되어야 합니다. 이러한 측정 값이 없으면 AI가 합법적인 사용자에게 서비스를 전환 하는 데 과도하게 대응하도록 강제 변환할 수 있습니다.

이는 자율 학습 알고리즘이 선별되지 않거나 신뢰할 수 없는 데이터 집합에 대한 학습인 경우에 특히 중요합니다. 즉, 공격자가 제공하는 모든 데이터를 도입할 수 있습니다. 즉, 형식이 올바르지만 알고리즘이 학습되어 해당 데이터 요소를 학습 집합의 나머지 부분과 똑같이 효율적으로 신뢰합니다. 공격자가 제공하는 입력이 충분하면 학습 알고리즘은 높은 신뢰도 데이터에서 노이즈 및 비정상을 파악할 수 있는 기능을 상실합니다.

이러한 위협에 대한 예로 전 세계 모든 언어로 된 정지 표지판 데이터베이스를 생각해 볼 수 있습니다. 이는 관련된 이미지 및 언어의 수 때문에 매우 어려운 일입니다. 자동 주행 자동차가 더 이상 중지 기호를 인식하지 않을 때까지 해당 데이터 집합에 대한 악의적인 기여를 거의 알지 못합니다. 데이터 복원력 및 의사결정 무결성 완화는 악의적인 데이터가 학습 모델의 핵심 부분이 되지 않도록 방지하기 위해 악의적인 데이터에서 수행하는 학습 손실을 식별하고 제거하는 데 직접 작업해야 합니다.

AI는 투명하고 책임감 있게 제공하기 위해 기본 제공되는 법적 정보와 보안 로깅을 기본적으로 갖춰야 합니다.

AI는 궁극적으로 전문가의 담당자를 대신하여 전문가의 역할을 할 수 있도록 해 높은 영향을 주는 의사 결정을 지원합니다. 이에 대한 예는 금융 거래를 처리하는 데 도움이 되는 AI일 수 있습니다. AI를 활용하여 어떤 방식으로든 활동을 조작하는 경우, 그 결과는 개인으로부터 시스템에 이르기까지 범위가 다를 수 있습니다. 높은 가치의 시나리오에서 AI는 무결성, 투명성, 책임을 제공하기 위한 적절한 법적 정보 및 보안 로깅이 필요하며, 일부 인스턴스에서는 민사 또는 형사법의 책임이 발생할 수 있습니다.

필수 AI 서비스는 알고리즘 수준에서 감사/이벤트 추적 기능이 필요 합니다. 이는 개발자가 부정확한 의사 결정을 겪을 수 있는 특정 분류자의 기록된 상태를 검사할 수 있습니다. 이 기능은 질문에 호출될 때 AI 생성 결정의 정확성과 투명도를 증명하기 위해 업계 전체에서 필요로 합니다.

이벤트 추적 기능은 다음과 같은 기본 의사 결정 정보의 상관 관계로 시작할 수 있습니다.

  1. 마지막 학습 이벤트가 발생한 기간

  2. 가장 최근에 학습된 데이터 집합 항목의 타임스탬프

  3. 높은 영향을 주는 결정에 도달하는 데 사용되는 주요 분류자의 가중치 및 신뢰 수준

  4. 의사 결정에 관련된 분류자 또는 구성 요소

  5. 알고리즘에 의해 영향을 받은 최종적인 높은 값 결정

이러한 추적은 대부분의 알고리즘 지원 의사 결정을 위해 과도하게 수행됩니다. 그러나 특정 결과로 이어지는 데이터 요소 및 알고리즘 메타데이터를 식별하는 기능을 제공하는 것은 높은 가치 의사 결정에서 장점입니다. 이러한 기능은 알고리즘에서 "작업을 표시"하는 기능을 통해 신뢰성과 무결성을 보여줄 뿐만 아니라 이 데이터를 미세 조정에도 사용할 수 있습니다.

AI/ML에서 요구되는 또 다른 포렌식 기능은 변조 탐지입니다. AI가 바이어스를 인식하고 이에 취약하지 않을 것으로 생각하는 것처럼, 엔지니어가 이러한 공격을 감지하고 대응하는 데 도움이 되는 포렌식 기능을 제공해야 합니다. 이러한 포렌식 기능은 데이터 시각화 기법을 사용하는 경우 큰 가치를 제공합니다. [11] 감사, 디버깅 및 알고리즘 튜닝을 통해 보다 효과적인 결과를 제공합니다.

AI는 사람이 알지 못하는 경우에도 중요한 정보를 보호해야 합니다.

다양한 경험에는 다양한 데이터가 필요합니다. 사람이 학습할 수 있는 많은 양의 데이터를 이미 학습하고 있습니다. 이 범위는 자세한 비디오 스트리밍 큐 콘텐츠와 사기 행위를 감지하는 데 사용되는 신용 카드 구매/트랜잭션 기록의 추세에 이르기까지 다양 합니다. AI는 사용자 데이터를 처리하는 경우에는 사용자 데이터를 처리하는 데 항상 적절한 의미를 가져야 하며, 이는 많은 사람들이 공유해 자유롭게 사용할 수 있도록 데이터를 보호하는 경우에도 그렇습니다.

AI는 복잡한 작업을 수행하기 위해 통신하는 "피어"의 인증된 그룹을 가질 수 있으므로 해당 피어와 공유하는 데이터를 제한해야 한다는 것도 인식해야 합니다.

AI 보안 문제 해결에 대한 조기 관찰

이 프로젝트는 초기임에도 불구하고, 지금까지 취합된 증거는 각 영역에 대한 심층 조사를 제공한다고 믿으며, 신뢰성 있고 보안성을 갖춘 AI/ML 제품/서비스로 이 산업을 발전시킬 것입니다. 다음은 이 분야에서 수행하려는 작업에 대해 조기에 관찰하고 발견한 점입니다.

  1. AI/ML 중심 침투 테스트 및 보안 검토 기관은 미래의 AI가 우리의 가치를 공유하고 Asilomar AI 원칙에 부합하도록 할 수 있습니다.

    1. 이러한 그룹은 AI/ML 기반 서비스의 보안을 지원하기 위해 업계 전체에서 사용될 수 있는 도구 및 프레임워크를 개발할 수도 있습니다.
    2. 시간이 지남에 따라 이 전문성은 지난 10년 동안의 기존 보안 전문성과 마찬가지로 엔지니어링 그룹 내에 유기적으로 구축됩니다.
  2. 이 문서에서 설명하는 문제를 완화하면서 기업이 널리 사용되는 AI와 같은 목표를 달성하는 데 사용할 수 있는 학습을 개발할 수 있습니다.

    1. AI 관련 보안 학습을 통해 엔지니어는 원하는 대로 AI와 리소스에 처해진 위험을 인식합니다 . 이 자료는 고객 데이터 보호에 대한 현재 학습과 함께 제공되어야 합니다.
    2. 모든 데이터 과학자가 보안 전문가가 되지 않아도 이를 수행할 수 있습니다. 대신 AI 사용 사례에 적용되는 복원력 및 판단에 대한 개발자의 교육에 집중해야 합니다.
    3. 개발자는 기업에서 재사용되는 AI 서비스의 보안 "빌딩 블록"을 이해해야 합니다. 쉽게 끌 수 있는 하위 시스템(예: 이미지 프로세서, 텍스트 파서)의 내결함성 설계에 중점을 두어야 합니다.
  3. ML 분류자와 해당 기본 알고리즘은 현재 사용 중인 유효한 학습 데이터를 손상시키거나 결과를 취합하면서 악의적인 학습 데이터를 검색할 수 있습니다.

    1. 부정 입력 거부와 같은 기술[6]을 조사하려면 연구원 주기가 필요합니다.

    2. 이러한 작업에는 수학 검증, 코드의 개념 증명, 악의적이고 무해한 비정상 데이터 모두에 대한 테스트 등이 포함됩니다.

    3. 특히 통계적 변칙이 있는 경우 인간의 스폿 검사/조정이 도움이 될 수 있습니다.

    4. "감독 분류자"는 여러 AI에서 위협에 대한 보다 보편적인 이해를 제공 하도록 구축할 수 있습니다. 공격자가 특정 모델을 더 이상 탈취할 수 없기 때문에 시스템 보안이 크게 향상됩니다.

    5. AI를 함께 연결하여 서로의 시스템에서 위협을 식별할 수 있습니다.

  4. 중앙화된 ML 감사/법적고지를 위한 표준을 설정하는 중앙 ML 감사/법적고지를 구축할 수 있습니다.

    1. AI로 비즈니스에 큰 영향을 주는 결정을 재구성하기 위해 쿼리 기능을 작성할 수도 있습니다.
  5. 악의적 사용자에서 사용하는 언어는 다른 문화 그룹 및 소셜 미디어에 걸쳐 지속적으로 인벤토리 및 분석하여 트롤링, 풍자 등을 검색하고 대응할 수 있습니다.

    1. AI는 기술, 지역 또는 포럼에 특정한 모든 종류의 언어면에서 탄력적으로 대처해야 합니다.

    2. 이 지식 본문은 중재자 확장성 문제를 해결하기 위해 콘텐츠 필터링/레이블 지정/차단 자동화에도 활용할 수 있습니다.

    3. 이 글로벌 용어 데이터베이스는 개발 라이브러리에서 호스트되거나 클라우드 서비스 API를 통해 노출되어 다른 AIS에서 다시 사용할 수 있으므로 새로운 AIS가 이전 항목의 결합된 지혜를 활용할 수 있습니다.

  6. 엔지니어가 평가할 수 있는 테스트 학습 집합에 다양한 유형의 공격을 주입하는 기능을 제공하는 "Machine Learning 퍼지 프레임 워크"를 만들 수 있습니다.

    1. 이러한 데이터 형식의 순열 뿐만 아니라 텍스트 언어 뿐만 아니라 이미지, 음성 및 제스처 데이터에만 집중할 수 있습니다.

결론

Asilomar AI 원칙은 인간을 지속적으로 보조하는 방식으로 AI를 제공하는 복잡성을 설명합니다. 향후 AI는 다른 AI와 상호작용하여 풍부하고 매력적인 사용자 환경을 제공해야 합니다. 즉, 보안 관점에서 Microsoft가 "AI를 올바르게 사용"하는 것만으로는 충분하지 않습니다. 전 세계가 그래야 합니다. 디지털 제네바 회의[9]에서 전 세계가 촉구한 것과 같이 이 문서에서 제시한 문제에 대한 가시성을 향상하고 업계의 이해를 일정하게 맞추고 공동 작업을 수행해야 합니다. 여기에 나와 있는 문제를 해결하여 AI가 진정하게 민주화되고 모든 인간의 인텔리전스를 보강하는 방향에서 고객 및 업계 파트너를 안내할 수 있습니다.

참고 문헌

[1] Taleb, Nassim Nicholas (2007), The Black Swan: The Impact of the Highly Improbable, Random House, ISBN 978-1400063512

[2] 플로리안 트라메르, 팬 장, 아리 줄스, 마이클 K. 레이터, 토마스 리스텐파르트,예측 API를 통해 기계 학습 모델 도용

[3] 이안 굿펠로우, 니콜라스 페이퍼노트, 샌디 황, 얀 두안, 피터 애벨, 잭 클라크:적대적 예로 기계 학습 공격

[4] 사티아 나델라:미래의 파트너십

[5] 클래번, 토마스:구글의 트롤 파괴 AI는 오타에 대처할 수 없다

[6] 마르코 바레노, 블레인 넬슨, 앤서니 디 조셉, J.D. 타이가:기계 학습의 보안

[7] 울오버, 나탈리:이 인공 지능 개척자는 몇 가지 우려가

[8] Conn, Ariel:인공 지능을 인간의 가치와 어떻게 맞추나요?

[9] 스미스, 브래드:사람들을 온라인에서 안전하게 지키기 위한 긴급한 집단 행동의 필요성: 지난 주 사이버 공격의 교훈

[10] 니콜라스 칼리니, 프라티우스 미쉬라, 타비시 바이다, 위안카이 장, 미카 셔, 클레이 쉴즈, 데이비드 바그너, 웬차오 저우:숨겨진 음성 명령

[11] 페르난다 비에가스, 마틴 와텐버그, 다니엘 스밀코프, 제임스 벡슬러, 짐보 윌슨, 니킬 토라트, 찰스 니콜슨, 구글 리서치:빅 픽처