Najveće tehnološke kompanije žele da regulišu razvoj vještačke inteligencije
![](https://cdn.glassrpske.rs/slika/2023/07/750x500/20230726191623_479599.jpg)
VAŠINGTON - Četiri najuticajnije kompanije u oblasti veštačke inteligencije (AI), najavile su danas formiranje industrijskog tijela koje će nadgledati siguran razvoj najnaprednijih modela.
Frontier Model Forum su formirali Chat GPT programer OpenAI, Antropik, Majkrosoft i Gugl, prenio je Gardijan.
Grupa je saopštila da će se fokusirati na „bezbjedan i odgovoran razvoj graničnih AI modela, pozivajući se na AI tehnologiju koja je čak naprednija od trenutno dostupnih primjera“.
-Kompanije koje stvaraju AI tehnologiju imaju odgovornost da obezbijede da ona bude bezbedna i da ostane pod ljudskom kontrolom - rekao je predsednik Majkrosofta Bred Smit.
Naveo je da je ova inicijativa vitalni iskorak tehnološkog sektora u odgovornom unapređenju vještačke inteligencije i suočavanju sa izazovima, tako da koristi cijelom čovječanstvu. Članovi foruma rekli su da se njihovi glavni ciljevi tiču promovisanja istraživanja bezbjednosti vještačke inteligencije, poput razvoja standarda za procjenu modela, kao i podsticanje odgovorne primjene naprednih AI modela.
Napomenuli su i to da će razgovarati o rizicima povjerenja i bezbjednosti u AI sa političarima i akademicima, kao i da će pomagati u razvoju pozitivnih upotreba vještačke inteligencije, poput borbe protiv klimatske krize i otkrivanja raka.
Članstvo u grupi, kako je istaknuto, otvoreno je za organizacije koje razvijaju granične modele, definisane kao „veliki modeli mašinskog učenja koji prevazilaze mogućnosti trenutno prisutne u najnaprednijim postojećim modelima i mogu da obavljaju širok spektar zadataka“.
Najava dolazi dok se ubrzavaju koraci za regulisanje tehnologije, a u petak su tehnološke kompanije, uključujući i članove osnivača Frontier Model Foruma, pristale na nove mjere zaštite vještačke inteligencije nakon sastanka u Bijeloj kući sa američkim predsjednikom Džozefom Bajdenom.
Dogovori sa tog sastanka obuhvatili su sadržaj AI sa vodenim žigom, kako bi se olakšalo uočavanje obmanjujućih materijala, kao što su dipfejks i omogućavanje nezavisnim stručnjacima da testiraju AI modele.
Saopštenje Bijele kuće naišlo je na skepticizam kod nekih aktivista, koji su rekli da je tehnološka industrija imala istoriju nepoštovanja obećanja o samoregulaciji, naveo je Gardijan.
Pratite nas na našoj Facebook i Instagram stranici i Twitter nalogu.