Federativ öyrənmə: Məxfilik və təhlükəsizliyiniz üçün həqiqətən daha yaxşıdır?

Federativ öyrənmə (1)


Ən son süni intellektlə ayaqlaşmağınıza baxmayaraq, əvvəllər “federated öyrənmə” ifadəsini eşitməmisiniz. Baxmayaraq ki, bu 3D çap və ya dronlar kimi digər texnoloji meyllər qədər nəzərə çarpan olmaya bilər, gizlilik və maşın öyrənməsi üçün təsirləri daha çox istifadəyə səbəb ola bilər önümüzdəki illərdə.

Qısa və sadə versiya budur ki, federasiya edilmiş təlim, Facebookun News Feed və ya Google Xəritələri olmağından asılı olmayaraq, indi həyatımızın bir çox tərəfində üstünlük təşkil edən alqoritmləri təkmilləşdirmək üçün alternativ bir modeldir. Daha ənənəvi sistemdə məlumatlarımız təhlil edildiyi bir mərkəzi serverə göndərilir və alqoritmi dəyişdirmək üçün müvafiq məlumatlar istifadə olunur.

Federated öyrənmə, istifadəçi məxfiliyini artıran bir həll təklif edir fərdi məlumatların əksəriyyəti bir şəxsin cihazında qalır. Alqoritmlər özlərini birbaşa istifadəçi cihazlarında hazırlayır və bütövlükdə məlumatları deyil, yalnız müvafiq məlumatları geri göndərirlər. Bu, şirkətlərə öz istifadəçilərinin bütün məlumatlarını toplamağa ehtiyac duymadan alqoritmlərini təkmilləşdirməyə, daha çox məxfilik yönümlü bir həll təqdim etməyə imkan verir..

Federasiya öyrənmə nədir?

Yalan danışmayaq, əksər insanlar üçün federativ öyrənmənin dərinliyi mürəkkəb və başa düşmək çətin görünə bilər. AI sahəsi, bir çox xalqın bilik sahəsindən kənarda və çoxumuzun rahat olduğundan daha çox riyaziyyat və məntiqə sahibdir.

Bu çətinliklərə baxmayaraq, federativ öyrənmə maraqlı və vacib bir texnoloji inkişafdır, buna görə başınızı ətrafına çəkməyə dəyər. Hər şeyi asanlaşdırmaq üçün, konsepsiyaları parçalayacağıq və sadələşdirilmiş şəkildə izah edəcəyik ki, böyük mənzərəni başa düşəsiniz.

Maşın öyrənmə və alqoritmlər

1930-cu illəri cosplaying keçirməyinizə qədər həyatınız alqoritmlərlə doludur. Bu məzmunda, alqoritmlərə müraciət etdikdə, mahiyyət etibarilə nəzərdə tuturuq bir problemi anlamaq və ya istədiyiniz nəticəni hesablamaq üçün istifadə olunan düsturlar və ya təlimatlar dəsti.

Facebook, İnstagram və Twitter onlardan istifadə edərək sizi maraqlandıran çox güman ki, fərdi məzmunu çatdırmaqla yanaşı platformaları daha çox pul qazanır. Google axtarış motoru, axtarış sözlərinizi axtardığınız səhifələrə çevirmək üçün mükəmməl alqoritmlərdən istifadə edir. Waze A nöqtəsindən B nöqtəsinə çatmağın ən təsirli yolunu müəyyənləşdirmək üçün alqoritmlərdən istifadə edərkən e-poçtunuz alqoritmlər ilə spamları filtrləyir..

Bizə tapşırıqları yerinə yetirməyə kömək edən, gündəlik işlərin başlığı altında qalmağımıza və ya qalmağımıza kömək edən saysız-hesabsız digər alqoritmlər var..

Şirkətlərdir ən təsirli, dəqiq və səmərəli nəticələr vermək üçün daim bu alqoritmləri təkmilləşdirməyə çalışırıq, nə qədər ki, şirkətin öz məqsədlərinə uyğun gəlir – ümumiyyətlə pul qazanmaq.

Ən çox istifadə olunan alqoritmlərimiz ilk yerləşdirilməsindən bəri uzun bir yol keçmişdir. 90-cı illərin sonlarında və ya 2000-ci illərin əvvəllərində Google-da axtarış aparmağı düşünün – inanılmaz dərəcədə spesifik olmalı idiniz və nəticələr bu günlə müqayisədə dəhşətli idi.

Beləliklə, bu alqoritmlər necə inkişaf edir?

Alqoritmlərin tapşırıqları yerinə yetirmələrinin əsas hissəsi süni intellektin alt sahəsi olan maşın öyrənməsini əhatə edir. Maşın öyrənmə alqoritmləri bir nümunə götürərək təhlil edərək başlayır tapşırıqları daha effektiv yerinə yetirmək üçün öyrəndiklərindən istifadə edərək. Bu dəyişiklikləri bir insan inkişaf etdiricisi kimi kənar qüvvə tərəfindən proqramlaşdırılmasına ehtiyac olmadan yaxşılaşdıra bilirlər.

Maşın öyrənməsi son bir neçə onillikdə inkişaf edir, alqoritmlərimizi inkişaf etdirir, daha yaxşı nəticələr əldə etməyə və yeni sahələrə keçməyə kömək edir. Faydalı olduğuna görə, bu da a olmuşdur şirkətlər üçün nəhəng pul istehsalçısı Facebook, Google və digərləri kimi.

Hamısı məlumatla başlayır – məlumat hovuzu nə qədər böyükdürsə və yüksək keyfiyyətli məlumat nöqtələrinin sayı daha çoxdur, bu maşın öyrənmə alqoritmləri nə qədər dəqiq ola bilər. Bir alqoritm nə qədər təsirli olsa, məlumatları bir mala çevirən bir o qədər pul qazana bilər.

Bu şərtlər insanlar üzərində toplanan məlumatların miqdarının genişlənməsinə səbəb oldu. Əksər hallarda bu məlumatlar istifadəçilərin telefonlarından, kompüterlərindən və digər sahələrdən toplanır, sonra alqoritmi yaxşılaşdırmaq üçün təhlil edildiyi bir serverə göndərilir. Bu olsa da tez-tez daha yaxşı xidmətlərə və artan rahatlığa səbəb olur, şəxsi həyatlarından narahat olanlar tərəfindən də əhəmiyyətli bir geri çəkilmə baş verdi.

Bu şirkətlər haqqında hər zaman yerinizi bilən, kiminlə dost olduğunuzu, bütün axtarış tarixçənizi və daha çox şeyləri bilən pis bir şey var. Şübhəsiz ki, bu cür məlumat toplamaqdan çəkinməyin yolları var, lakin metodlar ümumiyyətlə insanların çoxunun narahat olması üçün çox təsirsizdir.

Facebook’un Cambridge Analytica fiasco və Google + ‘ın məlumatların kütləvi şəkildə pozulması kimi bir sıra məlumat gizliliyi qalmaqallarında şirkətlər diqqət çəkməyə başladılar. Qəsb olunmaq istəməmələri, istifadəçilərinin və ya qanunvericilərin qəzəbini artırmadan hədəflərini irəliləməyə davam etmək üçün yollara baxdıqları görünür. Mark Zuckerberg, bu ilki F8 konfransında “Gələcəyin özəl olduğunu” elan etdiyi zaman bəlkə də sular anı oldu.

Bu hərəkata şübhə ilə baxmağın ən yaxşısı olsa da, istifadəçi məxfiliyinə aid müsbət inkişaflar var, bunlardan biri də federasiya olunmuş öyrənmə.

Federativ öyrənmə

İstifadəçi cihazlarından məlumatları serverimizə aparmaq əvəzinə niyə alqoritmi məlumatlara göndərmirik?

Bu federativ öyrənmənin əsas anlayışıdır. Bu müddət Google işçiləri tərəfindən nəşr olunan 2016 sənəddə təsbit edildi və şirkət bu sahənin başında qaldı.

federated öyrənmək 1

Federasiya təlim təlim prosesi.

Federativ öyrənmə alqoritm hazırkı versiyasını uyğun cihazlara göndərərək alqoritmləri təkmilləşdirir. Alqoritmin bu modeli, seçilmiş bir qrup istifadəçinin telefonlarında olan şəxsi məlumatlardan öyrənir. İş başa çatdıqda yeni biliklərin xülasəsi yenidən şirkətin serverinə göndərilir – məlumat özü telefonu heç buraxmır.

Təhlükəsizlik üçün bu bilik ümumiyyətlə serverə qayıdarkən şifrələnir. Alınan xülasə əsasında serverin fərdi məlumatları müəyyən edə bilməməsini dayandırmaq üçün Google hazırladı Təhlükəsiz toplama protokolu.

Bu protokol serverin fərdi məlumat xülasəsinə daxil olmasının qarşısını almaq üçün kriptoqrafiyadan istifadə edir. Bu sxemə görə, server yalnız xülasə əldə edildikdən və yüzlərlə və ya minlərlə digər istifadəçilərin nəticələri ilə ortalama əldə etdikdən sonra əldə edə bilər.

Alternativ olaraq, differensial məxfilik təsadüfi məlumat səs-küy əlavə etmək üçün istifadə edilə bilər nəticələri gizlətmək üçün fərdi. Bu təsadüfi məlumatlar xülasə serverə göndərilmədən əvvəl əlavə olunur, serverə alqoritmik təlim üçün kifayət qədər dəqiq bir nəticə verir, həqiqi xülasə məlumatları aşkarlanmadan. Bu şəxsin məxfiliyini qoruyur.

Təhlükəsiz toplama protokolu və differensial məxfilik kimi üsullar istifadəçi məlumatlarını həm təşkilat, həm də hakerlərdən qorumaq üçün çox vacibdir.. Bunlar olmadan federativ öyrənmə istifadəçilərin məxfiliyini təmin edə bilməzdi.

Məlumat xülasəsi serverə etibarlı şəkildə göndərildikdən sonra alqoritmi yeniləmək üçün istifadə olunur. Proses minlərlə dəfə təkrarlanır, və alqoritmin sınaq versiyaları da müxtəlif istifadəçi cihazlarına göndərilir. Bu, təşkilatlara real istifadəçi məlumatlarında alqoritmlərin yeni versiyalarını qiymətləndirməyə imkan verir. Təhlil istifadəçi cihazları daxilində aparıldığı üçün, alqoritmlər istifadəçi məlumatlarını mərkəzi serverə yığmadan sınaqdan keçirilə bilər..

Testlər başa çatdıqda yenilənmiş alqoritm modeli köhnəsini əvəz etmək üçün istifadəçi cihazlarına göndərilir. Gücləndirilmiş alqoritm daha sonra normal vəzifələrində istifadə olunur. Hər şey plan üzrə keçibsə, nəticələrinə çatmaqda daha təsirli və dəqiq olacaqdır.

Sonra bütün dövr təkrar-təkrar təkrarlanır:

  • Yeni alqoritm seçilmiş istifadəçi cihazlarında məlumatları öyrənir.
  • Bu istifadəçi məlumatlarının xülasələrini serverə etibarlı şəkildə göndərir.
  • Daha sonra bu məlumatlar digər istifadəçilərin nəticələri ilə ortalandırılır.
  • Alqoritm bu məlumatdan öyrənir, yeniləmələr çıxarır və sınaqdan keçirir.
  • Alqoritmin daha inkişaf etmiş bir versiyası istifadəçilərə təqdim olunur.

Zaman keçdikcə alqoritm istifadəçi məlumatlarını öyrənir və məlumatları şirkət serverlərində saxlamadan daim inkişaf edir. Hələ də federasiya edilmiş öyrənmənin nə olduğunu və necə işlədiyini başınızı bükmək üçün mübarizə aparırsınızsa, Google sizə federasiya edilmiş öyrənmə yanaşmasını sadə şəkildə görüntüləməyə izah edən və izah edən bu cizgi filmini nəşr etdi..

Federativ öyrənmənin digər üstünlükləri

Federasiya edilmiş öyrənmə modeli istifadəçilərə məxfilik üstündə bir sıra digər üstünlüklər təklif edir. Həmişə məlumatları serverlə bölüşmək əvəzinə, öyrənmə prosesi bir cihaz şarj edildikdə, WiFi ilə əlaqəli və istifadə edilmədikdə aparıla bilər, istifadəçilərin üzləşdiyi narahatlıqları minimuma endirmək.

Bu o deməkdir ki, istifadəçilər qiymətli məlumatlarını və ya batareyaları xaricində olduqda israf etmirlər. Federativ öyrənmə yalnız məlumatların deyil, yalnız müvafiq məlumatların xülasəsini köçürdüyünə görə, proses ənənəvi təlim modellərinə nisbətən daha az məlumat ötürməyə son qoyur.

Federativ öyrənmə həm qlobal, həm də fərdi alqoritmik modelləri təqdim edə bilər. Daha geniş istifadəçi qrupundan anlayışlar əldə edə bilər və onların unikal ehtiyaclarına uyğun daha effektiv bir model təqdim etmək üçün fərdi istifadəçi məlumatları ilə birləşdirə bilər.

Federativ öyrənmə tətbiqləri

Federativ öyrənmə, xüsusən də olduğu hallarda potensial istifadə hallarının geniş sahəsinə malikdir məxfilik məsələləri alqoritmlərin təkmilləşdirilməsi zərurəti ilə kəsişir. Bu anda ən məşhur federasiya öyrənmə layihələri smartfonlarda aparıldı, ancaq eyni üsullar kompüterlərə və muxtar nəqliyyat vasitələri kimi IoT cihazlarına da tətbiq edilə bilər.

Mövcud və potensial istifadələrin bəzilərinə aşağıdakılar daxildir:

Google Gboard

Federal dünyada öyrənmənin ilk geniş miqyaslı yerləşdirilməsi bir hissəsi idi Google’un klaviatura tətbiqi, Gboard. Şirkət istifadəçi məxfiliyinə xələl gətirmədən söz təkliflərini təkmilləşdirmək üçün texnikadan istifadə etməyi hədəfləyib.

Köhnə maşın öyrənmə yanaşması altında daha yaxşı klaviatura proqnozlarını inkişaf etdirmək olduqca invaziv olardı – yazdığımız hər şey, bütün özəl mesajlarımız və qəribə Google axtarışlarımız təhlil üçün mərkəzi bir serverə göndərilməli idi və başqa məlumatları kim bilir üçün istifadə edilə bilər.

Şükürlər olsun ki, Google bunun əvəzinə federativ təlim yanaşmalarından istifadə etməyi seçdi. Alqoritmik model istifadəçi cihazlarına yerləşdirildiyi üçün istifadəçilərin yazdıqları sözlərdən öyrənməyə, əsas məlumatları ümumiləşdirməyə və sonra yenidən serverə göndərməyə qadirdir. Daha sonra bu xülasələr sonra sınaqdan keçirilmiş və istifadəçilərə təqdim olunan Google-un proqnozlaşdırıcı mətn xüsusiyyətlərini artırmaq üçün istifadə olunur.

Alqoritmin yeni versiyası prosesdən öyrəndikləri sayəsində təkmilləşdirilmiş təcrübə təqdim edəcək və dövrü təkrarlanır. Bu istifadəçilərə gizliliklərini pozmadan klaviatura təkliflərini daim təkmilləşdirməyə imkan verir.

Səhiyyə

Məlumatların məxfiliyi və təhlükəsizlik səhiyyə sənayesində olduqca mürəkkəbdir. Bir çox təşkilatlar həssaslıqla axtarılan həm həssas, həm də dəyərli xəstə məlumatlarının əhəmiyyətli bir hissəsini saxlayır.

Heç kim xalqa sızan utanc verici bir diaqnoz istəmir. Bu depolarda olan məlumatların zənginliyi şəxsiyyət oğurluğu və sığorta saxtakarlığı kimi fırıldaqçılar üçün olduqca faydalıdır. Məlumatların çox olması və səhiyyə sənayesinin üzləşdiyi böyük risklər üzündən, əksər ölkələrdə sağlamlıq məlumatlarının necə idarə olunacağı ilə bağlı ciddi qanunlar tətbiq edilmişdir, məsələn ABŞ-ın HIPAA qaydaları.

Bu qanunlar olduqca məhdudlaşdırıcıdır və bir təşkilat onları pozarsa, ciddi cəzalarla gəlir. Məlumatların səhv qəbul edilməsindən narahat olan xəstələr üçün bu ümumiyyətlə yaxşı bir şeydir. Lakin, bu növ qanunvericilik yeni tibbi irəliləyişlərə kömək edə biləcək işlərdə bəzi məlumatların istifadəsini çətinləşdirir.

Bu mürəkkəb hüquqi vəziyyətə görə Owkin və Intel kimi təşkilatlar araşdırma aparır məlumatların istifadəsi zamanı eyni zamanda xəstələrin məxfiliyini qorumaq üçün federasiya edilmiş təlimin necə tətbiq oluna biləcəyini.

Owkin bir platformada çalışır xəstə məlumatlarını qorumaq üçün federated öyrənmədən istifadə edir dərman zəhərliliyini təyin edən, xəstəlik təkamülünü proqnozlaşdıran və nadir xərçəng növləri üçün sağ qalma nisbətlərini qiymətləndirən təcrübələrdə.

2018-ci ildə Intel, Pensilvaniya Universitetinin Biotibbi Təsvir Hesablama və Analitik Mərkəzi ilə federasiya edilmiş təhsilin konsepsiya sübutu olaraq tibbi görüntüyə necə tətbiq olunacağını nümayiş etdirmək üçün tərəfdaşlıq etdi..

Əməkdaşlıq, federasiya edilmiş bir tədris yanaşması altında, onların xüsusi dərin öyrənmə modelinin öyrədilə biləcəyini ortaya qoydu Ənənəvi üsullarla öyrədilən eyni model qədər yüzdə 99 dəqiqdir.

Muxtar nəqliyyat vasitələri

Federativ təlim iki əsas cəhətdən özünü idarə edən nəqliyyat vasitələri üçün faydalı ola bilər. Birincisi, istifadəçi məlumatlarının məxfiliyini qoruya bilər – bir çox insan səyahət qeydləri və digər sürücülük məlumatlarının mərkəzi serverə yüklənərək təhlil olunma fikrini bəyənmir.. Federativ öyrənmə istifadəçi məxfiliyini yalnız bu məlumatların xülasəsi ilə alqoritmləri yeniləməklə artıra bilər, istifadəçi məlumatlarının hamısını deyil.

Bir federasiya edilmiş bir öyrənmə yanaşmasının tətbiq edilməsinin digər əsas səbəbi gecikmənin potensialını azaltmasıdır. Yollarımızda çox sayda özünü idarə edən avtomobillərin olduğu ehtimal olunan bir gələcək ssenaridə təhlükəsizlik hadisələri zamanı bir-birlərinə sürətlə cavab verə bilmələri lazımdır..

Ənənəvi bulud öyrənməsi böyük məlumat ötürmələri və daha yavaş bir öyrənmə sürətini əhatə edir, buna görə də potensial var federated öyrənmə avtonom nəqliyyat vasitələrinə qəzaları azaltmaq və təhlükəsizliyi artırmaqla daha sürətli və dəqiq hərəkət etməyə imkan verə bilər.

Tənzimləməyə uyğundur

Federativ təlim həm də təşkilatlara alqoritmik modellərini xəstə məlumatlarını ifşa etmədən və ya qaydaların səhv tərəfi olmadan başa çatdırmadan yaxşılaşdırmağa kömək edə bilər. Avropanın Ümumi Məlumat Qoruma Tənzimlənməsi (GDPR) və ABŞ-ın 1996-cı il tarixli Tibbi Sığorta Daşınması Qanunu kimi qanunlar, fərdi şəxslərin məlumatlarına və bunun necə istifadə olunmasına dair ciddi qaydalara malikdir.

Bu qanunlar ümumiyyətlə fərdlərin məxfiliyini qorumaq üçün mövcuddur, yəni federasiya edilmiş təhsil potensial olaraq yeni imkanlar aça bilər. məlumatları hələ etibarlı saxlayarkən öyrənin və tənzimləmə qaydaları daxilində.

Federativ öyrənmənin təhlükəsizliyi və məxfiliyi

Federativ təlim məlumatların məxfiliyinə zərər vermədən maşın öyrənmə modelləri hazırlamaq üçün yeni imkanlar dünyası açır. Bununla birlikdə təhlükəsizlik məsələlərini və istifadəçi məlumatlarını ifşa etmə ehtimalını azaltmaq üçün diqqətlə həyata keçirmək lazımdır.

Əsas problemlərdən bəziləri, habelə onların həlli yollarına aşağıdakılar daxildir:

İstifadəçi məlumatlarının xülasəsini tutma

Adekvat məxfilik və təhlükəsizliyin təmin edilməsi ümumiyyətlə fərqli texnologiyaların və siyasətin birləşməsini əhatə edir. Federativ öyrənmə bizə məlumatları qorumağın yeni yollarını təqdim etsə də, yenə də əlavə mexanizmlərlə birlikdə tətbiq edilməlidir.

Potensial bir zəif nöqtəyə bir nümunə, istifadəçilərin məlumatlarının xülasəsi cihazdan mərkəzi serverə göndərildikdə, orijinal məlumatları tapmaq üçün istifadə edə bilən hakerlər tərəfindən ələ keçirilə bilər..

Şükürlər olsun ki, bu problemin informasiya təhlükəsizliyinin bir çox sahəsində tətbiq etdiyimiz nisbətən sadə bir həll yolu var – sadəcə iki nöqtə arasında gedərkən məlumatları müvafiq alqoritmlə şifrələməliyik..

Istifadəçi xülasəsindən orijinal məlumatları tapmaq

Müəyyən ssenarilərdə istifadəçi məlumatlarının xülasəsi orijinal məlumatları müəyyən etmək üçün istifadə edilə bilər. Zərərli bir tərəf API vasitəsilə sorğu göndərirsə, məlumatların yenidən qurulması mümkün ola bilər, baxmayaraq ki, bu federativ öyrənmə üçün unikal problem deyil..

Təcavüzkarlar və ya serverlərə sahib olan təşkilatlar orijinal istifadəçi məlumatlarını bu şəkildə müəyyən edə bilsəydilər, tamamilə olardı federated öyrənmə həyata keçirmək məqsədini məğlub edin. Bunun baş verməsinin qarşısını almaq üçün federativ öyrənmə ilə birlikdə tətbiq edilə bilən iki əsas mexanizm mövcuddur: Google’un Təhlükəsiz Birləşdirmə protokolu və differensial məxfilik.

The Təhlükəsiz toplama protokolu serverə və ya hər hansı digər tərəfə hər hansı bir fərdi məlumatların xülasəsini aşkar etmədən bir qrup istifadəçi məlumatının ümumiləşdirməsini hesablamaq üçün çox tərəfli hesablamadan istifadə edir.

Bu sistem altında istifadəçi icmallarının hər biri istifadəçi cihazını tərk etməzdən əvvəl şifrələnir və onlar birlikdə əlavə olunmadan və müəyyən bir sıra istifadəçi icmalları ilə ortalama qədər server tərəfindən şifrələnə bilməz. Bu, serverə fərdi modeli fərdi fərdlərin şəxsi məlumatlarını aşkar etmək üçün istifadə edilə bilən fərdi xülasələri açıqlamadan istifadəçi orta səviyyəsində öyrətməyə imkan verir..

Təhlükəsiz toplama yalnız serverin istifadəçi xülasəsinə daxil olmasına mane olmur, həm də edir man-in-ortada hücumlar daha çətin.

Digər variant isə differensial məxfilik, məlumatlara əlavə edilən səs-küyün müəyyən bir miqdarını ehtiva edən müxtəlif əlaqəli texnikaları daxil edir. Diferensial məxfiliyin əsas istiqaməti ondan ibarətdir ki, istifadəçi məlumatlarının gizli qalması üçün verilənlər bazasına edilən sorğular şəxsin məlumatların daxil olub-olmadığını, nə də onların məlumatlarının nə olduğunu aşkar etməməlidir..

Sualların bu məlumatı aşkar etməsinin qarşısını almaq üçün məlumatlara səs-küy əlavə etmək üçün bir neçə fərqli seçim istifadə edilə bilər. Bu məlumat səs-küyü istifadəçi cihazını tərk etməzdən əvvəl əlavə olunur, həm serverə, həm də təcavüzkarlara yeniləmələri orijinal formada əldə etmələrini maneə törədir..

Model zəhərlənməsi

Federativ öyrənmə rəqiblərə alqoritmik modeli “zəhərləmək” üçün fürsət açır. Əslində, bu o deməkdir zərərli aktyor modeli korlaya bilər öz cihazları vasitəsilə və ya alqoritmik modelin təlimində iştirak edən digər tərəflərin cihazlarını ələ keçirməklə.

Bu hücumlar Bagdasaryan et al. Tərəfindən ətraflı araşdırılmışdır. onların içində Backdoor federated öyrənmə necə kağız. Bir federasiya edilmiş bir öyrənmə modeli altında təcavüzkarın bir və ya daha çox iştirakçını qəbul etmək potensialı var.

Müəyyən ssenarilərdə, üzərlərinə götürdükləri hər bir iştirakçının məlumatlarına nəzarət etmək mümkündür, məlumatların yerli şəkildə necə öyrədildiyini dəyişdirmək, öyrənmə dərəcəsi və fərdi modelin çəkisi kimi hiperparametrləri dəyişdirmək (toplama üçün serverə təqdim edilməmişdən əvvəl). Hər bir iştirakçının yerli təlimə yanaşmasını bir turdan digərinə dəyişdirmək də mümkündür.

Bu qabiliyyətlərlə təcavüzkarlar alqoritmləri öz məqsədləri istiqamətində dəyişdirə bilən arxa qapıları vura bilərlər. Tədqiqatdakı rəqəmlərə görə, modelin zəhərlənməsi digər məlumatlarla zəhərlənmə hücumlarına nisbətən daha təsirli idi.

80.000 iştirakçının iştirak etdiyi bir söz proqnozlaşdırma işində, tədqiqatçılar iştirakçıların yalnız səkkizinə güzəştə getməklə, yüzdə 50-lik açıq dəqiqliyə nail ola bildilər. Məlumatları zəhərləməklə eyni effekti əldə etmək üçün tədqiqatçılar 400 iştirakçıya güzəştə getməli olurdular.

Ən böyük məsələlərdən biri, federated öyrənmə və Təhlükəsiz Birləşdirmə protokolunun istifadəçi məlumatlarını gizli saxlamağı hədəfləməsidir. Düzgün tətbiq edildikdə, serverin fərdi istifadəçinin xülasəsində anomaliyaları aşkar etməsini qeyri-mümkün edir.

Yuxarıda qeyd etdiyimiz kimi, Təhlükəsiz toplama protokolu yalnız istifadəçi icmallarına digər istifadəçi məlumatları ilə birlikdə əlavə edildikdən sonra daxil olmaq imkanı verir. Xülasələri fərdi olaraq görmək mümkün olmadığından, bu model içərisində zəhərlənmə hücumlarını gizlətmək üçün mükəmməl bir yol verərək, onların içərisində ola biləcək anomaliyaları görməməzlikdən keçirir..

Bu mərhələdə bu hücumlar və onların mümkün müdafiələri daha dərindən araşdırılmalıdır.

Modelin gizli saxlanması

Mürəkkəb alqoritmik modellər milyonlarla dəyər qazana bilər, bu da oğruların hədəfinə çevrilir. Onları alqoritmlərin arxasında duran şirkətlər kimi pul qazanmaq üçün istifadə edə bilər və ya hətta qeyri-qanuni məqsədlər üçün istifadə edə bilərlər. Oğruları modelin qurulmasına çoxlu miqdarda maliyyələşdirmədən xilas etməklə yanaşı, orijinalını da devalvasiya edə bilər.

Şirkətlər intellektual mülklərini qorumalıdırlar və bu modeli birbaşa istifadəçilərin cihazlarına göndərmək kimi görünür asanlıqla bu modelləri götürmək istəyən hər kəsin məruz qalması ilə nəticələnə bilər. Bununla birlikdə şirkətlərin alqoritmik modellərini qorumaq üçün istifadə edə biləcəyi həllər var.

Bunlardan biri budur çox partiyalı hesablamanın gizli paylaşımından istifadə etmək. Bu, təşkilatlara parçaları cihazların arasında paylayaraq model çəkisini gizlətməyə imkan verir. Bu sistem altında gizli saxlayan tərəflərdən heç biri bütün modeli bilmir.

Bu, təşkilatlara alqoritmik təlim modellərini əqli mülklərinin oğurlanmasından narahat olmayaraq cihazlara itələməyə imkan verir.

Federativ öyrənmə məhdudiyyətləri

Potensial təhlükəsizlik məsələlərinə əlavə olaraq, federated öyrənmənin bütün məlumat məxfiliyimizi həll etmək üçün sehrli bir həb olmasına mane olan bir sıra digər məhdudiyyətlərə malikdir..

Bir nəzərə alınması odur ki, ənənəvi maşın öyrənmə metodları ilə müqayisədə, federated öyrənmə modeli yetişdirmək üçün daha çox yerli cihaz gücünə və yaddaşa ehtiyac duyur. Bununla birlikdə, bir çox yeni cihaz bu funksiyalar üçün kifayət qədər gücə malikdir və bu yanaşma, məlumatların istifadəsini azaltmaqla daha az miqdarda mərkəzi serverlərə ötürülməsinə səbəb olur. Bir çox istifadəçi cihazı kifayət qədər güclü olduqda bu ticarətdən faydalana bilər.

Digər bir texniki problem bant genişliyini əhatə edir. Federativ təlim WiFi və ya 4G üzərində aparılır, ənənəvi maşın öyrənmə isə məlumat mərkəzlərində olur. Wifi və ya 4G-nin bant genişliyi dərəcələri bu mərkəzlərdə işləyən qovşaqlar və serverlər arasında istifadə olunanlardan daha kiçikdir.

Qurğuların bant genişliyi illər ərzində hesablama gücü qədər sürətlə artmadı, buna görə kifayət qədər bant genişliyi problemə səbəb ola bilər gecikməni artırır və tədris prosesini daha yavaş edir ənənəvi yanaşma ilə müqayisə edildikdə.

Alqoritm təhsili bir cihaz istifadə edilərkən aparılırsa, bu cihazın fəaliyyətini azaldır. Google bu problemi yalnız təlim qurğuları boş olduqda, işə salındıqda və bir çıxışa qoşulduqda əldə etdi. Bu problemi həll edərkən, bu öyrənmə dövrünü ləngidir, çünki təlim yalnız pik vaxtlarda edilə bilər.

Digər bir problem, təlim zamanı cihazların düşməsi – sahibləri tərəfindən istifadəyə verilə bilər, söndürülər və ya başqa bir pozulmalara məruz qala bilər. Çıxan cihazların məlumatları düzgün istifadə edilməməsi, daha az alqoritmik modelə səbəb ola bilər.

Maşın öyrənməsi üçün yeni bir yol öyrənmək federasiya olunur?

Federativ təlim nisbətən yeni bir təhsil modelidir və bir sıra fərqli tətbiqlərdə potensialı göstərir. Çünki hələ nisbətən erkən təhsil mərhələsindədir, Bütün mümkün istifadələrin təyin olunmadan əvvəl prosesin daha çox araşdırmaya ehtiyacı var, eləcə də üzləşdiyi potensial təhlükəsizlik və məxfilik riskləri.

Bu vaxta qədər, yanaşmanın gələcəkdə nə qədər geniş tətbiq olunacağını əminliklə söyləmək çətindir. Yaxşı xəbər budur ki, biz Google Gboard ilə real dünyada effektiv şəkildə yayıldığını görmüşük.

Bununla birlikdə, əvvəllər müzakirə olunan bəzi məhdudiyyətlərə görə, federativ öyrənmənin bütün ssenarilərdə ənənəvi təlim modellərini əvəz etməsi çətin olacaqdır. Gələcək eyni zamanda bizim böyük texnoloji şirkətlərimizin gizliliyinə nə dərəcədə sadiq olmağımızdan da asılı olacaq. Bu mərhələdə şübhə etməyə əsaslı səbəbimiz var.

Həmçinin bax: 2019 məlumat pozuntusu statistikası

Kim Martin Administrator
Sorry! The Author has not filled his profile.
follow me
    Like this post? Please share to your friends:
    Adblock
    detector
    map