Microsoft'da Yapay Zekanın ve Machine Learning'in Geleceğinin Güvenliğini Sağlama
Andrew Marshall, Raul Rojas, Andrew Stokes ve Andrew Brinkman tarafından
Mark Cartwright ve Graham Calladine'e Özel Teşekkür
Yönetici Özeti
Yapay Zeka (AI) ve Machine Learning (ML) zaten insanların çalışma, sosyalleştirme ve yaşam yaşamlarında büyük bir etki yapıyor. AI/ML'de yerleşik olarak yer alan ürün ve hizmetlerin tüketimi arttıkça, özel eylemler yalnızca müşterilerinizi ve onların verilerini korumakla değil, aynı zamanda yapay zekanızı ve algoritmalarınızı kötüye kullanım, onay ve ayıklamaya karşı korumak için de taahhüt gerekir. Bu belgede, Microsoft'un AI üzerine yerleşik ürün tasarlama ve çevrimiçi hizmetleri çalıştırma ile ilgili öğrenilen bazı güvenlik dersleri paylaşmaktadır. Bu bölgeyi nasıl kararlaştıracaklarını tahmin etmek zorsa da, şu anda üzerinde işlemde değiştirilebilir sorunlar olduğu sonucuna varıldık. Dahası, teknoloji sektörü tarafından müşterilerin uzun vadeli güvenliğini ve verilerin güvenliğini sağlamak için önde olması gereken stratejik sorunlar olduğunu bulduk.
Bu belge, AI tabanlı saldırılar ve hatta insan rakipleri tarafından yararlanan AI'larla ilgili değildir. Bunun yerine, ister tek tek veya tüm wolfpack'lar tarafından yapılan AI tabanlı ürün ve hizmetleri son derece gelişmiş, yaratıcı ve zararlı saldırılardan korumak için Microsoft'un ve endüstri ortaklarının üzerinde çalışması gereken konulara odaklanalım.
Bu belge tamamen AI/ML alanına özgü güvenlik mühendislik sorunlarına odaklanır, ancak InfoSec etki alanının geniş doğası gereği burada tartışılan sorunların ve bulguların gizlilik ve etik etki alanlarıyla bir derece örtüştmesi anlaşılmaktadır. Bu belgede teknoloji sektörü için stratejik öneme sahip zorluklar vurgulanırken, bu belgenin hedef kitlesi güvenlik mühendislik liderlik sektörü genelindedir.
Erken bulgularımız şunları önermektedir:
Bu belgede ele ML güvenlik sorunlarının türlerini azaltmak için, AI/ML var olan güvenlik uygulamalarına özgü özetler gereklidir.
Machine Learning modellerinin kötü amaçlı giriş ile anormal veri arasındaki farkları büyük ölçüde mümkün değildir. Önemli bir eğitim veri kaynağı,3rd-party katkılarına açık olan, el yazısız, değiştirilmemiş genel veri kümelerinden türetilen. Saldırganların, onlara katkıda bulunabilmesi için serbestken veri kümelerini tehlikeye atmalarına gerek yok. Zaman içinde, düşük güvenilir olan kötü amaçlı veriler, veri yapısının/biçimlendirmenin doğru kalması şartıyla yüksek güvenen güvenilir verilere neden olur.
Derin bir öğrenme modelinde kullanılamayacak kadar çok gizli sınıflayıcı/ML katmanı olduğu için, bu kararların nasıl ulaştığının kritik bir anlaşılmasına gerek kalmadan yapay zeka/ML karar alma süreçlerine ve algoritmalara çok fazla güven yerleştirilir. Bu obfuscation, "çalışmanızı göster" gibi bir verimsizlik oluşturur ve sorularak bulunarak, AI/ML bulguları prova olarak savunmayı zorlaştırur.
AI/ML, doğru olmayan kararın ciddi yaralanmalara veya ölümlere neden olduğu diğer sektörlerde yüksek değerli karar verme süreçlerine destek olmak için giderek kullanılır. AI/ML'de araştırma özellikleri olmaması, bu yüksek değerli sonuçların hem mahkemelerin hem de kamu davalarının karşılanmasına engel olur.
Bu belgenin hedefleri ( 1) AI/ML alanı için benzersiz olan güvenlik mühendislik sorunlarını vurgulamak, (2) bazı ilk düşünceleri ve gözlemleri ortaya çıkan tehditlere karşı ortaya çıkararak (3) olası düzeltmeler hakkında ilk düşünceleri paylaşmaktır. Bu belgeyle ilgili bazı güçlükler, endüstrinin önümüzdeki iki yılda bir önde olması gereken sorunlar, diğerleri ise bugün zaten çözmemiz gereken sorunlardır. Bu belgede ele alınan alanlar üzerinde daha fazla araştırma yapmadan, AI karar verme işlemlerini matematik düzeyindeki [7] güvenirken veya anlayamamıza (ve gerekirse değiştiremeden) boyunca gelecekte AI'nın siyah bir kutu haline geleceğini riskle karşılarız. Güvenlik açısından bakıldığında, bu etkili bir şekilde denetim kaybı ve Microsoft'un Yapay Zeka'da [4, 8] temel ilkelerinden bir güven kaybı anlamına gelir.
Yeni güvenlik mühendislik güçlükleri
Geleneksel yazılım saldırı vektörleri bu tehditlere karşı halen kritik öneme sahiptir, ancak AI/tehdide karşı yeterli ML sağlanmaz. Teknoloji sektörü, yeni çerçeveler üreterek ve AI/ML tabanlı hizmetlerin tasarımı ve çalışmasıyla ilgili boşlukları ele alan yeni yaklaşımlar benimserek, yeni nesil çözümlerle yeni nesil sorunlarıyla mücadele etmekten kaçınılmalıdır:
Aşağıda da ele alınarak, güvenli geliştirme ve işlem temelleri, AI'ı ve verileri kendi denetimi altında tutarken, Güvenlik ve İsteğe Bağlılık kavramlarını bir hale geliştirmeli. AI'ya özgü özetler Kimlik Doğrulaması, Görev Ayrımı, Giriş Doğrulama ve Hizmetin Reddi azaltma alanlarında gereklidir. Bu alanlara yatırımlar olmadan, AI/ML hizmetleri tüm beceri düzeylerinin hasırlarına karşı mücadeleye devam edecektir.
AI, diğer insanların insanlarla etkileşimlerinde sapma olmadan diğer kişilerde sapmayı tanıyabilecek. Bunu yapmak, biaselerin, stereotiplerin, vernaküler ve diğer kültürel yapıların kolektif ve gelişmeye devam olarak anlaşılmasını gerektirir. Böyle bir anlama, AI'yi sosyal mühendislik ve veri kümesine müdahale saldırılarından korumaya yardımcı olur. Düzgün uygulanan bir sistem, bu tür saldırılardan gerçekten daha güçlü hale gelecek ve genişletilmiş anını diğer AI'larla paylaşabilecektir.
Machine Learning algoritmalar, sonuçlar üzerinde olumsuz etki olan eğitim verilerini reddederek, "Black Black Black" olaylarından [1] kötü amaçlı olarak kullanılan verileri ayırt ede neler olabilir? Aksi takdirde, öğrenme modelleri her zaman saldırganlar ve saldırganlar tarafından oyun oynamaya karşı duyarlı olur.
AI'ın yerleşik özellik özelliklerine sahip olması gerekir. Bu, kuruluşların müşterilere AI'larının saydamlığını ve sorumluluklarını sağlamalarını ve eylemlerinin doğru hem doğru hem de yasal olarak karşılanabilir olmasını sağlar. Bu özellikler, aynı zamanda "AI izinsiz giriş algılaması" için erken bir biçim de işlevi de kullanır, mühendislerin bir sınıflandırıcı tarafından alınan kararın tam noktasını, onu etkileyen verileri ve verilerin güvenilir olup olmadığını saptamasına olanak sağlar. Bu alanı içinde yer alan veri görselleştirme özellikleri hızlı bir şekilde ilerler ve mühendislerin bu karmaşık sorunların kök nedenlerini belirlemeye ve çözmeye yardımcı olmak için söz [11].
İnsanlar bu şekilde tanımasa bile, AI hassas bilgileri tanımalı ve korumalı. AI'daki zengin kullanıcı deneyimleri, çok fazla miktarda ham veriye eğitim gerektirir, bu nedenle müşterilerin "aşırı paylaşım" için plan yapılması gerekir.
Tehdit ve olası risk azaltmalar da dahil olmak üzere bu alanlardan her biri aşağıda ayrıntılı olarak ele alınmıştır.
AI, geleneksel güvenli tasarım/güvenli işlem modellerinde yeni pivot'lar gerektirir: Güvenlik ve İsteğe Bağlı'nın tanıtımı
AI tasarımcılarının hassas verilerin gizliliğini, bütünlüğünü ve kullanılabilirliğini her zaman sağlamaları, AI sisteminin bilinen güvenlik açıklarından koruması ve sistem veya kullanıcının verilerine karşı kötü amaçlı davranışların korunması, algılanması ve yanıtlanması için denetimler sağlamaları gerekir.
Ses/görüntü/görüntü tabanlı saldırılar geçerli filtreleri ve savunmayı atamazsa, geleneksel zararlı saldırılara karşı savunmanın geleneksel yöntemleri bu yeni resimde de aynı kapsamda olmaz. Yeni kötüye kullanımların AI'mızı kötüye kullanmasını önlemek için yeni tehdit modelleme yönlerinin keşfedlenmesi gerekir. Bu, fuzzing veya giriş işlemesi yoluyla geleneksel saldırı yüzeyini belirlemenin çok daha ötesine gider (bu saldırıların kendi AI'larına özgü özetleri de vardır). Bu, AI/ML alanı için senaryoların dahil ML gerektirir. Bunlar arasında ses, görüntü ve hareketler gibi AI kullanıcı deneyimleri yer almaktadır. Bu deneyimlerle ilişkili tehdit, geleneksel olarak modelli değildir. Örneğin, video içeriği artık fiziksel fiziksel efektlere uyarlandı. Buna ek olarak, araştırmada ses tabanlı saldırı komutlarının [10] olarak iş olaran da olduğu ortaya çıktı.
Suçlular, belirli sıfatlar ve suçlular için geçerliliğini yitirebilirlik, yaratıcılığı ve kötü niyetlilik, AI'larımızı Dayanıklılık ve İsteğe Bağlılik değerlerine sahip olarak perdahmizi korumamızı gerektirir:
Yazdırma: Sistem, ai sistemine ve belirli göreve göre normal kabul edilebilir davranışın normal sınırları dışında işlemeyi veya zorlamayı önlemelidir. Bunlar, AI/ML uzaya özgü yeni ML türleridir. Sistemler, aksi takdirde topluluk ve oluşturucuları tarafından düzenlenen yerel yasalarla, etik değerlere ve değerlere aykırı girişlere karşı koyabilecek şekilde tasarlanacaktır. Bu, AI'ya bir etkileşimin ne zaman "komut dosyası kapat" olacağını belirleme özelliği sağlamak anlamına gelir. Aşağıdaki yöntemlerle bunu yapabilirsiniz:
Benzer kullanıcıların çeşitli büyük kümelerinden ayarlanmış normlardan saptamış olan tek tek kullanıcıları,örneğin, yazması çok hızlı olan, çok hızlı yanıt veren, uyku vermeyen veya sistemin bazı bölümlerini tetikleyen kullanıcılar gibi pinpoint.
Kötü amaçlı olasılık saldırılarının göstergeleri olduğu bilinen davranışın desenlerini ve Network Intrusion Kill Chain'in başlangıcını belirleme.
Birden çok kullanıcının eşgüdümle hareket ettiyken herhangi bir zamanı tanıma; Örneğin, hepsi aynı açıklanamaz ancak bilerek hazırlanmış sorgu, AI sisteminin belirli bölümlerinin etkinleştirilmesi sırasında kullanıcılar sayısında anlı depolar veya daha sonra depolar oluşturur.
AI, aynı püf noktalarına düşmeyecek şekilde hata düzeltmeleri ve yeniden sınırlama gerektiresin diye Bu tür saldırılar, Hizmet Reddi saldırılarında olduğu gibi kabul edilir. Önemli olan, ifade çözümleme API'lerine [5] karşıtlık ifade etmek için kullanılanlar gibi kötü amaçlı amacı tanımlayabilme olanağıdır.
Takdir:AI erişim izni olan tüm bilgilerden sorumlu ve güvenilir bir koruyucu olmalı. İnsanlar olarak, AI ilişkilerimize kesinlikle belirli bir güven düzeyi atayız. Bu aracılar herhangi bir noktada bizim bizim adına diğer aracılar veya diğer İnsanlarla konuşacak. Diğer aracıların kendi adına görevleri tamamlaymalarını için, AI sisteminin yalnızca bizimle ilgili olarak paylaşması gerekenleri kısıtlanmış bir formda paylaşmaya yetecek kadar takdir yetkisine sahip olması gerekir. Ayrıca, bizim adıma kişisel verilerle etkileşimde bulunan birden çok aracı, bu verilere genel erişime ihtiyaçsi olmaz. Birden çok AI veya robot aracısı içeren tüm veri erişim senaryoları, erişim yaşam boyutunu gerekli en düşük ölçüde sınırlamalı. Ayrıca, web tarayıcılarının site kara listeye bugün izin vermesine izin vermesi gibi, kullanıcıların da verileri reddederek aracıların kimlik doğrulamasını reddetmesi gerekir. Bu sorunu çözmek için, bulut tabanlı kullanıcı kimlik doğrulaması yatırımlarının bulut tabanlı yatırımları gibi aracılar arası kimlik doğrulaması ve veri erişim ayrıcalıkları üzerinde yeni düşünme gerekir.
AI, kendi başına sapma olmadan diğer kişilerde sapmayı tanıması gerekir
AI, belirli kişi gruplarına veya geçerli sonuçlara karşı ayırt edici olmadan adil ve kapsayıcı olmakla birlikte, bunu yapmak için sapmanın doğal bir şekilde anlaşılması gerekir. Sapma, sapma veya alaya olmayı tanıyacak eğitim almadan, en iyi şekilde kaliteli beyaz insanlar arayanlar AI'lar tarafından kandırılır veya en kötü şekilde müşterilere zarar verir.
Bu düzeyde bir farkındalık düzeyine ulaşmak için, "AI kötü şeyler öğreten iyi insanlar" için gerekir çünkü etkili bir şekilde kültürel ikiaseleri kapsamlı ve gelişmeye yönelik bir anlayış gerektirir. AI, ebeveynlerinin çocuklarına yabancılardan uzak olmayı nasıl öğreteceklerine benzer şekilde, geçmişte negatif etkileşimler içinde olduğu bir kullanıcıyı tanıyabilecek ve uygun dikkatli bir şekilde bakabilecek. Buna yaklaşmanın en iyi yolu, AI'ları dikkatli bir şekilde denetimli/yönetilen/sınırlı bir şekilde AI'lara karşı dikkatli bir şekilde ifade etmektir. Bu şekilde, AI bir kullanıcı "tütük" ile gerçek kötü niyetlilik/sıyrıklık arasındaki farkı öğrenebilir. Ayrıca, AI için değerli bir eğitim verileri akışı sağlar, bu da gelecekte saldırılara karşı dahayayaklı hale geldi.
AI, veri kümelerinde sapmayı da tanıyabilecek. Bu, belirli bir grup kişinin kullanımında vernaküler olan, kültürel veya bölgesel olabilir ya da bir gruba özgü ilgi alanlarına sahip konular/görünümler olabilir. Kötü amaçlı olarak ortaya çıkar amaçlı eğitim verilarında olduğu gibi, AI da bu verilerin kendi çıkarılmalarına ve kesintilere karşı etkilerini karşıda açık bir şekilde ifade etmek gerekir. Temel olarak bu, sınır denetimine benzer olan gelişmiş bir giriş doğrulama sorunudur. Arabellek uzunlukları ve uzaklıklarla ilgilenmek yerine, tampon ve sınır denetimleri çok çeşitli kaynaklardan kırmızı işaretli sözcüklerdir. Sözcüklerin kullanıldı olduğu konuşma geçmişi ve bağlam da anahtardır. Korumaları geleneksel Web Hizmeti API ön ucu üzerinde katman halede katmanız için olduğu gibi, sapma tanıma ve kaçınma tekniklerinden de birden çok koruma katmanı yararlanılmalıdır.
Machine Learning Algoritmalar, kötü amaçlı olarak kullanılan verileri "Black Black" etkinliklerinden ayırt edeleye sahip olmalı
Saldırganların hem eğitim veri kümesine erişimi hem de modelin kullanımında bilinçli bir anlama erişimi olan [2, 3, 6, 7] hizmetlerde ML modellerinin/sınıflayıcısıyla oynanması ve ayıklama/hırsızlık iddiaları hakkında çok sayıda teknik örnek yayımlanmıştır. Buradaki aşırı eski sorun, tüm sınıflandırıcıların ML kümesi verileri üzerinde denetimi olan bir saldırgan tarafından kandırmaya çalışmasıdır. Saldırganlar mevcut eğitim kümesi verilerini değiştirme olanağına bile ihtiyaç olmaz, yalnızca bu verilere veri ekleyebilmeleri ve zaman içinde ML sınıflandırıcının orijinal anormal verilerden kötü amaçlı verileri ayırt edeebilmeleri için girdilerinin zaman içinde "güvenilir" olması gerekir.
Bu eğitim veri zinciri sorunu, sınıflayıcı davranışını olumsuz etkilemeden önce kötü amaçlı olarak ortaya konu alan eğitim verilerini veya kullanıcı girişlerini tanımlama ve reddetme olanağı olan "Karar Bütünlüğü" kavramını tanıtır. Buradaki mantıklı olan, güvenilir eğitim verilerin güvenilir sonuçlar/kararlar oluşturma olasılığının daha yüksek olmasıdır. Güvenilmeyen verilere bağlı olmak ve bu verilere karşı açık olmak kritik öneme sahip olmakla birlikte, bu verilerin kötü amaçlı doğası, bu verilerin yüksek güvenilmeyen eğitim gövdesinin bir parçası olmadan önce çözümlensin. Bu tür ölçüler olmadan, AI hizmeti yasal kullanıcılara almak ve reddetmek için aşırı tepkiye neden olabilir.
Bu, öngörülemeyen öğrenme algoritmalarının güvenilmeyen ve güvenilmeyen veri kümelerine yönelik eğitimleridir. Bu, saldırganların biçimin geçerli olması şartıyla her türlü veriye sahip olduğu ve algoritmanın bu veri noktasına eğitim verilere eşit biçimde güvenerek eğitim alabilmesi anlamına gelir. Saldırgandan yeterince hazırlanmış giriş elde edilen eğitim algoritması yüksek güvene sahip verilerden gürültü ve gürültülüleri ayırt etme becerisini kaybeder.
Bu tehdidin bir örneği olarak, dünyanın her yerinde, her dilde durak işaretleri veritabanı düşünün. Dahil olan resim ve dillerin sayısı nedeniyle bu zor olabilir. Kendi kendine sürüş arabaları artık dur işaretlerini tanımayana kadar, bu veri kümesine kötü amaçlı katkılar büyük ölçüde gözlerden kaçacak. Veri bütünlüğü ve karar bütünlüğü risk azaltmaları, öğrenme modelinin temel bir parçası olmayı önlemek amacıyla kötü amaçlı verilerin verdiği eğitim zararlarını belirlemek ve ortadan kaldırmak için burada el ile birlikte çalışmalı.
Saydamlık ve sorumluluk sağlamak için AI'da yerleşik güvenlik günlüğü olması gerekir
AI, en sonunda bizim adına bir temsilci olarak, çok etkili karar verme konusunda bize yardımcı olarak profesyonel bir kapasitede davranabilecek. Buna örnek olarak, finansal işlemlerin iş sürecinde yardımcı olan bir AI olabilir. AI'dan yararlanıldı ise ve bir şekilde işlem yapılan işlemler varsa, bunun sonuçları bireyselden sistemsele kadar değişiklik gösterir. Yüksek değerli senaryolarda, AI bütünlük, saydamlık, sorumluluk ve bazı durumlarda, cezai veya cezai sorumluluk kanıtı sağlamak için uygun inceleme ve güvenlik günlüğü tutması gerekir.
Temel AI hizmetlerinin algoritma düzeyinde denetim/olay izleme tesisleri olması gerekir; burada geliştiriciler yanlış bir karara yol açtı olabilir ve bu da belirli sınıflayıcıların kaydedilmiş durumunu inceler. Bu özellik, AI tarafından oluşturulan kararların doğru ve şeffaflığını kanıtlamak için, her zaman sorulsa endüstri genelinde gereklidir.
Olay izleme tesisleri, aşağıdakiler gibi temel karar verme bilgisinin korelasyonla başlayabilir:
Son eğitim etkinliğine meydana gelen zaman dilimi
Üzerinde eğitim alan en yeni veri kümesi girdilerinin zaman damgası
Yüksek etkiyle ilgili kararlara varmak için kullanılan önemli sınıflayıcıların ağırlıkları ve güven düzeyleri
Karara katılan sınıflandırıcılar veya bileşenler
Algoritmanın ulaştığı son yüksek değerli karar
Algoritma yardımı ile alınan karar vermenin çoğunda bu izleme aşırıyıldır. Bununla birlikte, belirli sonuçlara yol alan veri noktalarını ve algoritma meta verilerini tanımlayabilme yeteneğine sahip olmak, yüksek değerli karar vermede büyük yarar sağlar. Bu tür özellikler, sadece algoritmanın "çalışmalarını gösterme" özelliği aracılığıyla güvenilirliğini ve bütünlüğünü göstermenin yanı sıra, bu veriler ince ayar yapmak için de kullanılabilir.
AI/ML'de gereken başka bir koruma özelliği de değişiklik algılamadır. AI'larımızın sapmayı tanıması ve bu saldırılara karşı duyarlı olmayacak olması gerektiği gibi, bu tür saldırıları tespit ve cevaplamada mühendislerimize yardımcı olacak özelliklere sahip olamız da kullanılabilir. Bu tür özellik özellikleri, daha etkili sonuçlar elde amacıyla algoritmaların denetlen, hata ayıklaması ve ayarının izin veren [11] veri görselleştirme teknikleriyle eşleştirilmesiyle elde edildiklerine değerlidir.
İnsanlar korumasız olsa bile, AI hassas bilgileri korumalı
Zengin deneyimler zengin veriler gerektirir. İnsanlar zaten insanların eğitim için çok ML veriye gönüllüdür. Bu, dolandırıcılığı tespit etmek için kullanılan kredi kartı satın alma/işlem tarihlerinde yer alan eğilimlere kadar sıra sıra içeriğinin çok daha uzun olması için kullanılır. Kullanıcı verilerini işleme söz konusu olduğunda, AI'ın aşırı paylaşımlı bir kamu tarafından gönüllü olarak kabul edildikleri bile, her zaman koruma için harekete geçen eski bir takdir yetkisine sahip olması gerekir.
Bir AI, karmaşık görevleri gerçekleştirmek için konuşma yaptığı kimliği doğrulanmış bir "eşler" grubu bulundurye sahip olabilir, bu meslektaşlarıyla paylaştığı verileri kısıtlama ihtiyacı da fark eder.
AI Güvenlik Sorunlarının Çözümle ilgili Erken Gözlemleri
Bu projenin ne kadar hızlı durumuna rağmen, tarihe derlenmiş kanıt, aşağıdaki alanlardan her biri üzerinde daha derin bir incelemenin, endüstrimizi daha güvenilir ve güvenli AI/ML ürünler/hizmetlere taşımada çok önemli olacağını düşünüyorum. Aşağıda, erken gözlemlerimiz ve bu alanda ne yapmakla ilgili düşüncelerimiz yer almaktadır.
AI/ML odaklı test ve güvenlik incelemesi gövdeleri oluşturulup, gelecekteki AI'mizin değerlerimizi paylaştığını ve Synamar AIİlkelerine uygun olmasını s sağlayacak şekilde gövdeler oluşturulup, AI/ML ilkelerle uyumlu olabilir.
- Bu tür bir grup, AI/ML tabanlı hizmetlerinin güvenliğini sağlama desteği olarak endüstri genelinde kullanılmaktadır.
- Zamanla bu uzmanlık, son 10 yıl boyunca geleneksel güvenlik uzmanlığıyla olduğu gibi mühendislik grupları içinde doğal bir şekilde bir hale gelecektir.
Bu belgede ele alınacak güçlükleri azaltacak şekilde, kuruluşların AI'ları yetkinleştirme gibi hedeflere teslim yetkisine sahip olması için eğitim geliştir edilebilir.
- AI'ya özgü güvenlik eğitimi mühendislerin kendi AI'larına ve onların el altında olan kaynaklara neden olan risklerden haberdarlarını sağlar. Bu malzeme, müşteri verilerini korumayla ilgili mevcut eğitimle birlikte teslim edilecektir.
- Bu, güvenlik uzmanı olmak için her veri tercihine gerek kalmadan gerçek dışı değiştirilebilir; bunun yerine, odak, AI kullanım durumlarına uygulandığında, Geliştiriciye Güven ve takdir konularına yerleştirilir.
- Geliştiricilerin, kuruluşlarında yeniden kullanılan AI hizmetlerinin güvenli "yapı taşlarını" anlamaları gerekir. Alt sistemli hatalı tasarım vurgulu olmalı ve kolayca kapatabilirsiniz (örneğin görüntü işlemcileri, metin ayrıştırıcılar).
ML Sınıflayıcılar ve onların temel algoritmaları, şu anda kullanımdaki geçerli eğitim verilerine bulaşmadan veya sonuçları bozmadan kötü amaçlı eğitim verilerini algılayama yeteneğine sahip olabilir.
Negatif Girişte Reddet [6] gibi tekniklerin araştırılması için araştırmacının döngüleri gerekir.
Bu çalışma matematik doğrulamayı, kodda kavram kanıtı ve hem kötü amaçlı hem de anormal verilere karşı test etme amaçlıdır.
İnsan nokta denetimi/denetleme, özellikle istatistiksel istatistiksel veriler mevcutsa faydalı olabilir.
"Denetimci sınıflayıcıları", birden çok AI'da tehditlere karşı daha evrensel bir anlayışa sahip olacak şekilde inşa edilmiş olabilir. Bu, sistemin güvenliğini büyük ölçüde artırıyor, çünkü saldırgan artık belirli bir modeli inceleyemeyecek.
AI'lar birbirlerinin sistemlerindeki tehditleri belirlemek için birbirine bağlı olabilir
AI ML saydamlık ve güvenilirlik için bir standart olacak şekilde merkezi bir denetim/inceleme kitaplığı oluşturulabiliyor.
- Sorgu özellikleri, AI tarafından iş üzerinde yüksek düzeyde etkili kararlar için denetim ve güvenlik özellikleri de geliştirebilir.
Farklı kültürel gruplarda ve sosyal medyada maceraların kullanımında olan vernaküler, atlayan, iğne vb. algılayan ve yanıt vermek için AI tarafından sürekli stoklanabilir ve çözümlanabilir.
AI'ların teknik, bölgesel veya foruma özgü her türlü vernaküler yüze bağlı olması gerekir.
Bu bilgi gövdesi, moderatör ölçeklenebilirliği sorunlarını ele alan içerik filtreleme/etiketleme/engelleme otomasyonu için de kullanılabilir.
Bu genel terim veritabanı geliştirme kitaplıklarında barındırıldı ve hatta bulut hizmeti API'leri tarafından farklı AI'lar tarafından yeniden kullanılması için açığa çıkar, yeni AI'ların birleştirilmiş eski AI'lardan yararlanması sağlanıyor olabilir.
Mühendislere, AI'nın değerlendirmeleri için test eğitim kümelerine çeşitli türlerde saldırılar ekleme olanağı sağlayan bir "Machine Learning Fuzzing Framework" oluşturulabilir.
- Bu hem metin vernaküler hem de görüntü, ses ve hareket verilerine ve bu veri türlerinin permütasyonlara odaklanabilirsiniz.
Sonuç
Pakistanomar AI İlkeleri, AI'da hizmet sunmanın karmaşıklığını, tutarlı bir şekilde İnsanlığa tutarlı bir şekilde avantaj sağlar. Gelecek AI'ların zengin, etkileyici kullanıcı deneyimleri sunmak için diğer AI'larla etkileşim kurması gerekir. Bu, Microsoft'un güvenlik açısından "AI'yi doğru bir şekilde" almaya yetecek kadar iyi olduğu anlamına gelir; dünyanın doğru bir yer burasıdır. Dijital Convention 9] ile yapılan dünya çapında yapılan bir İtkiyeye benzer şekilde, bu belgeyle ilgili sorunlar için daha görünür bir şekilde sektör hizalaması ve işbirliğine ihtiyacımız var. Burada sunulan sorunları çözümleerek, müşterilerimize ve endüstri iş ortaklarımıza, yapay zekanın gerçekten çok daha iyi olduğu ve tüm insanlığın zekalarını geliştirtiği bir yoldan yol gösterici olabiliriz.
Kaynakça
[1] Taleb, Nassimİs (2007), The Black Black Black: The Highly Improbable, Random House, ISBN 978-1400063512 Etkisi
[2] Bur hemf hem de değil, 1997'de 17.02.2007'de, IRzit API'leri yoluyla Machine Learning Modellerini çalmak
[3] Ian GoodFellow, Ali Papernot, Kumlu Huang, Yan Atln, Pieter Abbeelve Jack Clark:Adversarial örneklerle makine öğrenimine saldırı
[4] Satya Nadella:Gelecek Ortaklığı
[5] Alkışburn, Thomas:Google'ın her şeyi yok edenAI'sı yazım hataleriyle baş edemez
[6] Burak Barreno, Antonine Veli D. Joseph, J.D. Tygar:Makineöğrenimi güvenliği
[7] Wolchover, Natalie:Bu Yapay Zeka Öncüsü'ün Birkaç Endişesi Var
[8] Conn, Ariel:Yapay Zekayı İnsanDeğerleriyle Nasıl Hizalarız?
[9] Smith, Brad:İnsanların çevrimiçi güvende güvende olması için acil kolektif eylemegerek: Geçen haftanın siber saldırıları ile ilgili dersler
[10] Burak, Pratyush Mishra, Pakistanish Vaidya, Yuankai Yuan, Micah Sherr, Van Shields, David Zaman, Wenchao Zhou:Gizli Ses Komutları
[11] Fernanda Viégas, Martin Vatgas, Daniel Smil ayrıca, James Wexler, Jimbo James, Nikburg Aryat, Charles Charleson, Google Research:Big Picture