Vznik koalície pre bezpečnú AI – CoSAI

  • Home
  • Vznik koalície pre bezpečnú AI – CoSAI
CoSAI

Vznik koalície pre bezpečnú AI – CoSAI

22/07/2024 Benjamin Comments Off
66 Videní

Niektoré z najvýznamnejších mien v Big Tech sa spojili, aby spolu založili Coalition for Secure AI (CoSAI).

Táto nová iniciatíva s otvoreným zdrojovým kódom, organizovaná globálnym štandardizačným orgánom OASIS, má za cieľ štandardizovať a zdieľať najlepšie postupy súvisiace s bezpečným vývojom a nasadením umelej inteligencie (AI).

Ciele a význam CoSAI

CoSAI sa zameriava na riešenie mnohých bezpečnostných výziev spojených s vývojom a nasadením AI. Medzi tieto výzvy patrí:

  • Krádež modelu
  • Dáta otrava tréningových dát
  • Zavádzanie škodlivých vstupov prostredníctvom rýchleho vstrekovania
  • Škálovaná prevencia zneužívania
  • Útoky na členstvo
  • Modelovanie inverzných útokov alebo gradientných inverzných útokov na odvodenie súkromných informácií
  • Extrahovanie dôverných informácií z tréningových dát

Vyhradené témy

Charta CoSAI jasne uvádza, že projekt sa nebude zaoberať nasledovnými témami: dezinformácie, halucinácie, nenávistný alebo urážlivý obsah, zaujatosť, generovanie škodlivého softvéru, generovanie phishingového obsahu alebo iné témy v oblasti bezpečnosti obsahu.

Príklady existujúcich rámcov

Google už má svoj Google Secure AI Framework (SAIF) a OpenAI má svoj Aligning AI projekt. Napriek týmto individuálnym iniciatívam však neexistovalo žiadne fórum na kombinovanie osvedčených postupov bezpečnosti AI, ktoré by hráči v tomto odvetví vyvinuli nezávisle, až do vzniku CoSAI.

Podpora pre malé spoločnosti

Videli sme malé startupy, ako napríklad Mistral, ktoré zažili raketový vzostup s modelmi AI, ktoré vyrobili. Mnohé z týchto menších spoločností však nemajú zdroje na financovanie bezpečnostných tímov AI. CoSAI bude preto cenným bezplatným zdrojom osvedčených postupov v oblasti bezpečnosti AI pre malých aj veľkých hráčov v tomto odvetví.

Podpora od priemyselných lídrov

Heather Adkinsová, viceprezidentka a dôstojníčka pre odolnosť voči kybernetickej bezpečnosti v spoločnosti Google, zdôraznila význam CoSAI: „Umelú inteligenciu používame už mnoho rokov a vidíme pretrvávajúci potenciál pre obrancov, ale tiež si uvedomujeme jej príležitosti pre protivníkov. CoSAI pomôže organizáciám, veľkým aj malým, bezpečne a zodpovedne integrovať AI – pomôže im využiť jej výhody a zároveň zmierniť riziká.“

Nick Hamilton, vedúci oddelenia pre riadenie, riziká a dodržiavanie predpisov v OpenAI, dodal: „Vývoj a nasadenie technológií AI, ktoré sú bezpečné a dôveryhodné, je ústredným bodom poslania OpenAI. Sme presvedčení, že na zaistenie bezpečného a zodpovedného používania umelej inteligencie je nevyhnutné vyvinúť spoľahlivé štandardy a postupy, a preto sme odhodlaní spolupracovať v rámci celého odvetvia. Prostredníctvom našej účasti v CoSAI sa snažíme prispieť našimi odbornými znalosťami a zdrojmi k vytvoreniu bezpečného ekosystému AI, ktorý bude prínosom pre každého.“

Výzvy a očakávania

Dúfajme, že odborníci ako Iľja Sutskever a ďalší, ktorí odišli z OpenAI kvôli obavám o bezpečnosť, dobrovoľne prinesú svoje skúsenosti a príspevky pre CoSAI. Tým by mohli výrazne prispieť k rozvoju bezpečnostných štandardov a praktík v oblasti AI.

Záver

CoSAI predstavuje dôležitý krok vpred pre bezpečnosť a zodpovedné nasadenie umelej inteligencie. Spojením úsilia veľkých technologických spoločností a poskytovaním zdrojov pre menšie firmy, CoSAI pomáha vytvárať bezpečnejší a efektívnejší ekosystém pre vývoj a implementáciu AI technológií.

 

By: slovensko.ai