Je li umjetna inteligencija otišla predaleko?

Je li umjetna inteligencija otišla predaleko?

Kratak odgovor: Umjetna inteligencija je otišla predaleko kada se koristi u donošenju odluka s visokim ulozima, nadzoru ili uvjeravanju bez čvrstih ograničenja, informiranog pristanka i istinskog prava na žalbu. Ponovno prelazi granicu kada deepfakeovi i skalabilne prijevare čine da se povjerenje osjeća kao kockanje. Ako ljudi ne mogu reći da je umjetna inteligencija igrala ulogu, ne mogu shvatiti zašto je odluka donesena onako kako jest ili se ne mogu isključiti, već je otišla predaleko.

Ključne zaključke:

Granice: Definiraju što sustav ne može učiniti, posebno kada je nesigurnost visoka.

Odgovornost: Osigurati da ljudi mogu poništiti ishode bez kazni ili zamki vremenskog pritiska.

Transparentnost: Obavijestite ljude kada je uključena umjetna inteligencija i zašto je donijela svoje odluke.

Osporivost: Omogućiti brze, izvedive puteve žalbe i jasne načine za ispravljanje loših podataka.

Otpornost na zlouporabu: Dodajte podrijetlo, ograničenja stope i kontrole kako biste suzbili prijevare i zlouporabe.

„Je li umjetna inteligencija otišla predaleko?“

Neobično je to što prelazak granice nije uvijek očit. Ponekad je glasan i blještav, poput deepfake prijevare. ( FTC , FBI ) ​​Drugi put je tih - automatizirana odluka koja vam bez ikakvog objašnjenja skrene život s puta, a vi čak ni ne shvaćate da ste "proglašeni" ( UK ICO , GDPR čl. 22 )

Dakle… Je li umjetna inteligencija otišla predaleko? Na nekim mjestima da. Na drugim mjestima nije otišla dovoljno daleko - jer se koristi bez neprivlačnih, ali bitnih sigurnosnih ograda koje alate čine poput alata umjesto ruleta s prijateljskim korisničkim sučeljem. 🎰🙂 ( NIST AI RMF 1.0 , Zakon EU o umjetnoj inteligenciji )

Članci koje biste možda željeli pročitati nakon ovog:

🔗 Zašto umjetna inteligencija može biti štetna za društvo
Ključni društveni rizici: pristranost, radna mjesta, privatnost i koncentracija moći.

🔗 Je li umjetna inteligencija loša za okoliš? Skriveni utjecaji
Kako obuka, podatkovni centri i potrošnja energije povećavaju emisije.

🔗 Je li umjetna inteligencija dobra ili loša? Prednosti i nedostaci
Uravnotežen pregled koristi, rizika i kompromisa u stvarnom svijetu.

🔗 Zašto se umjetna inteligencija smatra lošom: tamna strana
Istražuje zlouporabu, manipulaciju, sigurnosne prijetnje i etička pitanja.


Što ljudi misle kada kažu „Je li umjetna inteligencija otišla predaleko?“ 😬

Većina ljudi ne pita je li umjetna inteligencija „osjetljiva“ ili „preuzima vlast“. Oni pokazuju na jedno od ovoga:

  • Umjetna inteligencija se koristi tamo gdje se ne bi trebala koristiti. (Posebno odluke s visokim ulozima.) ( Zakon EU o umjetnoj inteligenciji, Prilog III , GDPR, članak 22. )

  • Umjetna inteligencija se koristi bez pristanka. (Vaši podaci, vaš glas, vaše lice... iznenađenje.) ( UK ICO , GDPR članak 5. )

  • Umjetna inteligencija postaje previše dobra u manipuliranju pažnjom. (Feedovi + personalizacija + automatizacija = ljepljivo.) ( OECD-ova načela umjetne inteligencije )

  • Umjetna inteligencija čini da se istina čini opcionalnom. (Deepfakeovi, lažne recenzije, sintetički „stručnjaci“.) ( Europska komisija , FTC , C2PA )

  • Umjetna inteligencija koncentrira moć. (Nekoliko sustava oblikuje ono što svatko vidi i može učiniti.) ( UK CMA )

To je srž pitanja "Je li umjetna inteligencija otišla predaleko?" . Nije riječ o jednom jedinom trenutku. To je gomila poticaja, prečaca i razmišljanja tipa "popravit ćemo to kasnije" - što, budimo iskreni, obično znači "popravit ćemo to nakon što netko nastrada". 😑

Je li umjetna inteligencija otišla predaleko u infografici?

Ne tako tajna istina: UI je multiplikator, a ne moralni akter 🔧✨

Umjetna inteligencija se ne budi i ne odlučuje biti štetna. Ljudi i organizacije je ciljaju. Ali ona umnožava sve što joj date:

  • Korisna namjera postaje izuzetno korisna (prijevod, pristupačnost, sažimanje, uočavanje medicinskih obrazaca).

  • Nepažljiva namjera postaje izuzetno nepažljiva (pristranost u velikim razmjerima, automatizacija pogrešaka).

  • Zla namjera postaje izuzetno loša (prijevara, uznemiravanje, propaganda, lažno predstavljanje).

To je kao da date megafon malom djetetu. Ponekad dijete pjeva... ponekad dijete vrišti direktno u vašu dušu. Nije savršena metafora - malo glupo - ali poanta je točna 😅📢.


Što čini dobru verziju umjetne inteligencije u svakodnevnim okruženjima? ✅🤝

„Dobra verzija“ umjetne inteligencije ne definira se time koliko je pametna. Definira se time koliko se dobro ponaša pod pritiskom, neizvjesnošću i iskušenjem (a ljudi su jako skloni iskušenju jeftinom automatizacijom). ( NIST AI RMF 1.0 , OECD )

Evo što tražim kada netko tvrdi da je korištenje umjetne inteligencije odgovorno za to:

1) Jasne granice

  • Što je sustavu dopušteno?

  • Što je izričito zabranjeno raditi?

  • Što se događa kada je nesigurno?

2) Ljudska odgovornost koja je stvarna, a ne dekorativna

Ljudski "pregled" rezultata je važan samo ako:

  • razumiju što recenziraju i

  • mogu ga poništiti bez da budu kažnjeni zbog usporavanja stvari.

3) Objašnjivost na pravoj razini

Ne treba svima matematika. Ljudima treba:

  • glavni razlozi za odluku,

  • koji su podaci korišteni,

  • kako se žaliti, ispraviti ili isključiti. ( UK ICO )

4) Mjerljive performanse - uključujući načine kvara

Ne samo "točnost", već:

  • na koga ne uspije,

  • koliko često tiho zakaže,

  • što se događa kada se svijet promijeni. ( NIST AI RMF 1.0 )

5) Privatnost i privola koji nisu „zakopani u postavkama“

Ako privola zahtijeva potragu za blagom kroz izbornike... to nije privola. To je rupa u zakonu s dodatnim koracima 😐🧾. ( GDPR članak 5 , UK ICO )


Tablica usporedbe: praktični načini kako spriječiti umjetnu inteligenciju da ode predaleko 🧰📊

U nastavku su navedene „najbolje opcije“ u smislu da su to uobičajene zaštitne ograde ili operativni alati koji mijenjaju ishode (ne samo vibracije).

Alat / opcija Publika Cijena Zašto to funkcionira
Pregled ljudskog utjecaja ( Zakon EU o umjetnoj inteligenciji ) Timovi koji donose odluke s visokim ulozima ££ (trošak vremena) Usporava lošu automatizaciju. Također, ljudi ponekad mogu primijetiti neobične rubne slučajeve…
Postupak žalbe na odluku ( članak 22. GDPR- a) Korisnici na koje utječu odluke umjetne inteligencije Slobodno Dodaje pravičan postupak. Ljudi mogu ispraviti pogrešne podatke - zvuči osnovno jer je osnovno
Zapisnici revizije + sljedivost ( NIST SP 800-53 ) Usklađenost, operacije, sigurnost £-££ Omogućuje vam da odgovorite na pitanje „što se dogodilo?“ nakon neuspjeha, umjesto da sliježete ramenima
Evaluacija modela + testiranje pristranosti ( NIST AI RMF 1.0 ) Timovi za proizvode i rizike puno varira Rano otkriva predvidljivu štetu. Nije savršeno, ali bolje od nagađanja
Testiranje crvenog tima ( NIST GenAI profil ) Zaštita + zaštitari £££ Simulira zlouporabu prije nego što to učine pravi napadači. Neugodno, ali vrijedi 😬
Minimizacija podataka ( UK ICO ) Svi, iskreno £ Manje podataka = manje nereda. Također, manje propusta, manje neugodnih razgovora
Signali porijekla sadržaja ( C2PA ) Platforme, mediji, korisnici £-££ Pomaže u provjeri „je li ovo napravio čovjek?“ - nije nepogrešivo, ali smanjuje kaos
Ograničenja brzine + kontrole pristupa ( OWASP ) Pružatelji umjetne inteligencije + poduzeća £ Trenutačno sprječava širenje zlouporabe. Poput ležećih policajaca za loše glumce

Da, stol je malo neravan. Takav je život. 🙂


Umjetna inteligencija u odlukama s visokim ulozima: kada ode predaleko 🏥🏦⚖️

Ovdje stvari brzo postaju ozbiljne.

Umjetna inteligencija u zdravstvu , financijama , stanovanju , zapošljavanju , obrazovanju , imigraciji , kaznenom pravosuđu - to su sustavi gdje: ( Zakon EU o umjetnoj inteligenciji, Prilog III , FDA )

  • greška može nekoga koštati novca, slobode, dostojanstva ili sigurnosti,

  • a pogođena osoba često ima ograničenu moć da se bori protiv toga.

Veliki rizik nije da "umjetna inteligencija griješi". Veliki rizik je da pogreške umjetne inteligencije postanu politika . ( NIST AI RMF 1.0 )

Kako ovdje izgleda "predaleko"

  • Automatizirane odluke bez objašnjenja: „računalo kaže ne.“ ( UK ICO )

  • „Ocjene rizika“ tretirane su kao činjenice umjesto kao nagađanja.

  • Ljudi koji ne mogu poništiti ishode jer menadžment želi brzinu.

  • Podaci koji su neuredni, pristrani, zastarjeli ili jednostavno potpuno pogrešni.

Što bi trebalo biti nepregovaračko

  • Pravo na žalbu (brzo, razumljivo, ne labirint). ( GDPR čl. 22 , UK ICO )

  • Pravo znati da je umjetna inteligencija bila uključena. ( Europska komisija )

  • Ljudski pregled za posljedične ishode. ( NIST AI RMF 1.0 )

  • Kontrola kvalitete podataka - jer "smeće unutra, smeće van" je i dalje bolno istinito.

Ako pokušavate povući jasnu crtu, evo jedne:
Ako sustav umjetne inteligencije može materijalno promijeniti nečiji život, potrebna mu je ista ozbiljnost koju očekujemo od drugih oblika autoriteta. Nema "beta testiranja" na ljudima koji se nisu prijavili. 🚫


Deepfakeovi, prevare i spora smrt "vjerujem svojim očima" 👀🧨

Ovo je dio koji svakodnevni život čini... skliskim.

Kada umjetna inteligencija može generirati:

  • glasovna poruka koja zvuči kao da je riječ o članu vaše obitelji ( FTC , FBI )

  • video javne osobe koja nešto "govori",

  • poplava lažnih recenzija koje izgledaju dovoljno autentično, ( FTC )

  • lažni LinkedIn profil s lažnom radnom poviješću i lažnim prijateljima…

...ne samo omogućuje prijevare. Slabi društveno ljepilo koje omogućuje koordinaciju stranaca. A društvo funkcionira na koordinaciji stranaca. 😵💫

„Predaleko“ nije samo lažni sadržaj

To je asimetrija :

  • Jeftino je generirati laži.

  • Skupo je i sporo provjeravati istinu.

  • I većina ljudi je zauzeta, umorna i skrola.

Što pomaže (malo)

  • Oznake porijekla za medije. ( C2PA )

  • Trenje za viralnost - usporavanje trenutnog masovnog dijeljenja.

  • Bolja provjera identiteta gdje je to važno (financije, državne usluge).

  • Osnovne navike "provjere izvan opsega" za pojedince (uzvratni poziv, korištenje kodne riječi, potvrda putem drugog kanala). ( FTC )

Nije glamurozno. Ali nisu ni sigurnosni pojasevi, a ja sam osobno prilično vezan za njih. 🚗


Nadzorni puzajući sustav: kada umjetna inteligencija tiho sve pretvori u senzor 📷🫥

Ovo ne eksplodira kao deepfake. Samo se širi.

Umjetna inteligencija olakšava:

Čak i kada je netočno, i dalje može biti štetno jer može opravdati intervenciju. Pogrešno predviđanje i dalje može izazvati stvarne posljedice.

Neugodan dio

Nadzor uz pomoć umjetne inteligencije često dolazi umotan u priču o sigurnosti:

  • "To je za sprječavanje prijevara."

  • "To je zbog sigurnosti."

  • "To je za korisničko iskustvo."

Ponekad je to istina. Ponekad je to i zgodan izgovor za izgradnju sustava koje je kasnije vrlo teško rastaviti. Poput ugradnje jednosmjernih vrata u vlastitu kuću jer su se u to vrijeme činila učinkovitima. Opet, nije savršena metafora - pomalo smiješna - ali osjetite to. 🚪😅

Kako ovdje izgleda "dobro"

  • Stroga ograničenja zadržavanja i dijeljenja.

  • Izbriši isključivanja.

  • Uski slučajevi upotrebe.

  • Neovisni nadzor.

  • Ne koristi se "detekcija emocija" za kažnjavanje ili nadzor. Molim vas. 🙃 ( Zakon EU o umjetnoj inteligenciji )


Rad, kreativnost i problem tihog uklanjanja vještina 🧑💻🎨

Ovdje rasprava postaje osobna jer se dotiče identiteta.

Umjetna inteligencija može ljude učiniti produktivnijima. Također može učiniti da se ljudi osjećaju zamjenjivima. Oboje može biti istinito, istovremeno, u istom tjednu. ( OECD , WEF )

Gdje je to zaista korisno

  • Pisanje rutinskog teksta kako bi se ljudi mogli usredotočiti na razmišljanje.

  • Pomoć pri kodiranju ponavljajućih obrazaca.

  • Alati za pristupačnost (titlovi, sažimanje, prijevod).

  • Brainstorming kada zapnete.

Gdje ide predaleko

  • Zamjena uloga bez planova tranzicije.

  • Korištenje umjetne inteligencije za smanjenje proizvodnje uz istovremeno izravnavanje plaća.

  • Tretiranje kreativnog rada kao beskonačnih besplatnih podataka za obuku, a zatim slijeganje ramenima. ( Ured za autorska prava SAD-a , GOV.UK Ujedinjenog Kraljevstva )

  • Uklanjanje mlađih uloga - što zvuči učinkovito dok ne shvatite da ste upravo propustili ljestvicu kojom se budući stručnjaci trebaju popeti.

Uklanjanje vještina je suptilno. Ne primjećujete to iz dana u dan. Onda jednog dana shvatite da se nitko u timu ne sjeća kako stvar funkcionira bez asistenta. A ako asistent nije u pravu, onda ste svi zajedno samouvjereno u krivu... što je svojevrsna noćna mora. 😬


Koncentracija moći: tko postavlja zadane postavke? 🏢⚡

Čak i ako je umjetna inteligencija „neutralna“ (nije), tko god je kontrolira može oblikovati:

  • koje su informacije lako dostupne,

  • što se promovira ili zakopava,

  • koji je jezik dopušten,

  • koja se ponašanja potiču.

A budući da izgradnja i rad sustava umjetne inteligencije mogu biti skupi, moć se obično koncentrira. To nije zavjera. To je ekonomija s tehnološkom majicom s kapuljačom. ( UK CMA )

Trenutak "predaleko" ovdje

Kada neizvršene obveze postanu nevidljivi zakon:

  • Ne znaš što se filtrira,

  • Ne možete provjeriti logiku,

  • i realno se ne možete isključiti bez gubitka pristupa poslu, zajednici ili osnovnim uslugama.

Zdrav ekosustav treba konkurenciju, transparentnost i stvarni izbor korisnika. Inače u osnovi iznajmljujete stvarnost. 😵♂️


Praktična kontrolna lista: kako prepoznati ide li umjetna inteligencija predaleko u vašem svijetu 🧾🔍

Evo popisa za provjeru intuicije koji koristim (i da, nesavršen je):

Ako ste pojedinac

  • Mogu prepoznati kada komuniciram s umjetnom inteligencijom. ( Europska komisija )

  • Ovaj sustav me tjera da pretjeram s dijeljenjem.

  • Bio bih u redu da se nosim s rezultatom ako je pogrešan na uvjerljiv način.

  • Da sam prevaren/a koristeći ovo, platforma bi mi pomogla... ili bi samo slegnula ramenima.

Ako ste tvrtka ili tim

  • Koristimo umjetnu inteligenciju jer je vrijedna ili zato što je moderna, a menadžment je nemiran.

  • Znamo koje podatke sustav obrađuje.

  • Pogođeni korisnik može se žaliti na ishode. ( UK ICO )

  • Ljudi imaju ovlasti nadjačati model.

  • Imamo planove za odgovor na incidente u slučaju kvarova umjetne inteligencije.

  • Pratimo pomicanje, zloupotrebu i neuobičajene rubne slučajeve.

Ako ste na hrpu ovih pitanja odgovorili s "ne", to ne znači da ste zli. To znači da ste u normalnom ljudskom stanju "poslali smo ga i nadali se". Ali nada nije strategija, nažalost. 😅


Završne bilješke 🧠✅

Dakle… Je li umjetna inteligencija otišla predaleko?
Otišla je predaleko tamo gdje se koristi bez odgovornosti , posebno u donošenju odluka s visokim ulozima, masovnom uvjeravanju i nadzoru. Također je otišla predaleko tamo gdje narušava povjerenje - jer kada se povjerenje naruši, sve postaje skuplje i neprijateljskije, društveno gledano. ( NIST AI RMF 1.0 , Zakon EU o umjetnoj inteligenciji )

Ali umjetna inteligencija nije inherentno osuđena na propast niti inherentno savršena. Ona je snažan multiplikator. Pitanje je gradimo li zaštitne ograde jednako agresivno kao što gradimo i sposobnosti.

Kratki sažetak:

  • Umjetna inteligencija je dobra kao alat.

  • Opasno je kao neodgovorna vlast.

  • Ako netko ne može uložiti žalbu, razumjeti ili se isključiti - tu počinje "predaleko". 🚦 ( GDPR, članak 22. , UK ICO )


Često postavljana pitanja

Je li umjetna inteligencija otišla predaleko u svakodnevnom životu?

Na mnogim mjestima, umjetna inteligencija je otišla predaleko jer je počela upadati u odluke i interakcije bez jasnih granica ili odgovornosti. Problem je rijetko u tome što "umjetna inteligencija postoji"; radi se o tome da se umjetna inteligencija tiho uklapa u zapošljavanje, zdravstvo, korisničku podršku i feedove uz slab nadzor. Kada ljudi ne mogu reći da je to umjetna inteligencija, ne mogu osporiti rezultate ili se ne mogu isključiti, prestaje se osjećati kao alat i počinje se osjećati kao sustav.

Kako izgleda "pretjeravanje umjetne inteligencije" u odlukama s visokim ulozima?

Čini se da se umjetna inteligencija koristi u zdravstvu, financijama, stanovanju, zapošljavanju, obrazovanju, imigraciji ili kaznenom pravosuđu bez jakih zaštitnih ograda. Središnji problem nije u tome što modeli griješe; već u tome što se te pogreške učvršćuju u politici i postaju teško osporive. Odluke tipa "Računalo kaže ne" s tankim objašnjenjima i bez smislenih žalbi su mjesto gdje se šteta brzo skalira.

Kako mogu znati utječe li na mene automatizirana odluka i što mogu učiniti?

Uobičajen znak je iznenadni ishod koji ne možete objasniti: odbijanje, ograničenje ili vibracija "ocjene rizika" bez jasnog razloga. Mnogi sustavi trebali bi otkriti kada je umjetna inteligencija odigrala bitnu ulogu, a vi biste trebali moći zatražiti glavne razloge odluke i korake za žalbu. U praksi, zatražite ljudski pregled, ispravite sve pogrešne podatke i zagovarajte jednostavan put odustajanja.

Je li umjetna inteligencija otišla predaleko s privatnošću, pristankom i korištenjem podataka?

Često se to događa kada pristanak postane potraga za blagom, a prikupljanje podataka se proširi „za svaki slučaj“. Ključna je poanta članka da privatnost i pristanak nemaju veliku težinu ako su zakopani u okruženjima ili nametnuti nejasnim pojmovima. Zdraviji pristup je minimiziranje podataka: prikupljajte manje, čuvajte manje i učinite izbore nepogrešivima kako ljudi kasnije ne bi bili iznenađeni.

Kako deepfakeovi i AI prevare mijenjaju značenje "povjerenja" na internetu?

Oni istinu čine opcionalnom smanjujući troškove proizvodnje uvjerljivih lažnih glasova, videa, recenzija i identiteta. Asimetrija je problem: generiranje laži je jeftino, dok je provjera istine spora i zamorna. Praktične obrane uključuju signale podrijetla za medije, usporavanje dijeljenja virusa, jače provjere identiteta gdje je to važno i navike „izvanredne provjere“ poput uzvraćanja poziva ili korištenja zajedničke kodne riječi.

Koje su najpraktičnije zaštitne ograde za sprječavanje umjetne inteligencije da ode predaleko?

Zaštitne ograde koje mijenjaju ishode uključuju istinski pregled uz sudjelovanje ljudi za pozive s visokim ulozima, jasne postupke žalbe i zapisnike revizije koji mogu odgovoriti na pitanje „što se dogodilo?“ nakon neuspjeha. Evaluacija modela i testiranje pristranosti mogu ranije otkriti predvidljivu štetu, dok testiranje crvenog tima simulira zlouporabu prije nego što to učine napadači. Ograničenja brzine i kontrole pristupa pomažu u sprječavanju trenutnog skaliranja zlouporabe, a minimiziranje podataka smanjuje rizik u svim područjima.

Kada nadzor vođen umjetnom inteligencijom prelazi granicu?

Prelazi se granica kada se sve po defaultu pretvori u senzor: prepoznavanje lica u gužvi, praćenje obrazaca kretanja ili samouvjereno "detekcija emocija" koja se koristi za kažnjavanje ili nadzor. Čak i netočni sustavi mogu uzrokovati ozbiljnu štetu ako opravdavaju intervencije ili uskraćivanje usluga. Dobra praksa izgleda kao uski slučajevi upotrebe, stroga ograničenja zadržavanja, smislena isključivanja, neovisan nadzor i čvrsto "ne" klimavim prosudbama temeljenim na emocijama.

Čini li umjetna inteligencija ljude produktivnijima - ili tiho smanjuje vještine rada?

Oboje može biti istinito istovremeno, i ta napetost je poanta. Umjetna inteligencija može pomoći s rutinskim crtanjem, ponavljajućim obrascima kodiranja i pristupačnošću, oslobađajući ljude da se usredotoče na razmišljanje na višoj razini. Ide predaleko kada zamjenjuje uloge bez planova tranzicije, smanjuje plaće, tretira kreativni rad kao besplatne podatke za obuku ili uklanja niže uloge koje grade buduću stručnost. Uklanjanje vještina ostaje suptilno sve dok timovi ne mogu funkcionirati bez asistenta.

Reference

  1. Nacionalni institut za standarde i tehnologiju (NIST) - Okvir za upravljanje rizicima umjetne inteligencije (AI RMF 1.0) - nist.gov

  2. Europska unija - Zakon EU o umjetnoj inteligenciji (Uredba (EU) 2024/1689) - Službeni list (engleski) - europa.eu

  3. Europska komisija - Regulatorni okvir za umjetnu inteligenciju (stranica s politikom Zakona EU o umjetnoj inteligenciji) - europa.eu

  4. Služba za korisnike Zakona EU o umjetnoj inteligenciji - Prilog III (Visokorizični sustavi umjetne inteligencije) - europa.eu

  5. Europska unija - Pravila za pouzdanu umjetnu inteligenciju u EU (sažetak Zakona EU o umjetnoj inteligenciji) - europa.eu

  6. Ured povjerenika za informiranje Ujedinjenog Kraljevstva (ICO) - Što je automatizirano individualno donošenje odluka i profiliranje? - ico.org.uk

  7. Ured povjerenika za informiranje Ujedinjenog Kraljevstva (ICO) - Što GDPR u Ujedinjenom Kraljevstvu kaže o automatiziranom donošenju odluka i profiliranju? - ico.org.uk

  8. Ured povjerenika za informiranje Ujedinjenog Kraljevstva (ICO) - Automatizirano donošenje odluka i profiliranje (smjernica) - ico.org.uk

  9. Ured povjerenika za informiranje Ujedinjenog Kraljevstva (ICO) - Minimiziranje podataka (smjernice o načelima GDPR-a u Ujedinjenom Kraljevstvu) - ico.org.uk

  10. GDPR-info.eu - Članak 22. GDPR-a - gdpr-info.eu

  11. GDPR-info.eu - Članak 5. GDPR-a - gdpr-info.eu

  12. Američka Federalna trgovinska komisija (FTC) - Prevaranti koriste umjetnu inteligenciju za poboljšanje svojih programa za hitne slučajeve u obitelji - ftc.gov

  13. Američka Federalna trgovinska komisija (FTC) - Prevaranti koriste lažne hitne slučajeve kako bi vam ukrali novac - ftc.gov

  14. Američka Federalna trgovinska komisija (FTC) - Konačno pravilo kojim se zabranjuju lažne recenzije i svjedočanstva (priopćenje za medije) - ftc.gov

  15. Savezni istražni ured (FBI) - FBI upozorava na sve veću prijetnju kibernetičkih kriminalaca koji koriste umjetnu inteligenciju - fbi.gov

  16. Organizacija za ekonomsku suradnju i razvoj (OECD) - OECD-ova načela umjetne inteligencije - oecd.ai

  17. OECD - Preporuka Vijeća o umjetnoj inteligenciji (OECD/LEGAL/0449) - oecd.org

  18. Europska komisija - Smjernice i kodeks prakse za transparentne sustave umjetne inteligencije (ČPP) - europa.eu

  19. Koalicija za porijeklo i autentičnost sadržaja (C2PA) - Specifikacije v2.3 - c2pa.org

  20. Britansko tijelo za tržišno natjecanje i tržišno natjecanje (CMA) - Modeli temelja umjetne inteligencije: početno izvješće - gov.uk

  21. Američka Uprava za hranu i lijekove (FDA) - Medicinski uređaji s umjetnom inteligencijom - fda.gov

  22. NIST - Sigurnosne i privatne kontrole za informacijske sustave i organizacije (SP 800-53 Rev. 5) - nist.gov

  23. NIST - Generativni profil umjetne inteligencije (NIST.AI.600-1, ipd) - nist.gov

  24. Otvoreni svjetski projekt sigurnosti aplikacija (OWASP) - Neograničena potrošnja resursa (API Security Top 10, 2023.) - owasp.org

  25. NIST - Demografski podaci o testiranju dobavljača za prepoznavanje lica (FRVT) - nist.gov

  26. Barrett i dr. (2019.) - Članak (PMC) - nih.gov

  27. OECD - Korištenje umjetne inteligencije na radnom mjestu (PDF) - oecd.org

  28. Svjetski ekonomski forum (WEF) - Izvješće o budućnosti radnih mjesta 2025. - Sažetak - weforum.org

  29. Ured za autorska prava SAD-a - Autorska prava i umjetna inteligencija, 3. dio: Izvješće o generativnoj obuci za umjetnu inteligenciju (verzija prije objave) (PDF) - copyright.gov

  30. Vlada Ujedinjenog Kraljevstva (GOV.UK) - Autorska prava i umjetna inteligencija (konzultacije) - gov.uk

Pronađite najnoviju umjetnu inteligenciju u službenoj trgovini AI Assistant

O nama

Natrag na blog