Kako implementirati AI modele

Kako implementirati AI modele

Kratak odgovor: Implementacija AI modela znači odabir uzorka posluživanja (u stvarnom vremenu, u serijama, strujanju ili na rubu), a zatim učiniti cijeli put reproducibilnim, vidljivim, sigurnim i reverzibilnim. Kada sve verzirate i mjerite latenciju p95/p99 na korisnim teretima sličnim produkcijskim, izbjegavate većinu kvarova "radi na mom prijenosnom računalu".

Ključne zaključke:

Obrasci implementacije: Odaberite implementaciju u stvarnom vremenu, serijsku implementaciju, strujanje ili implementaciju na rubu mreže prije nego što se odlučite za alate.

Reproducibilnost: Verzirajte model, značajke, kod i okruženje kako biste spriječili pomicanje.

Promatljivost: Kontinuirano praćenje repova latencije, pogrešaka, zasićenja i distribucija podataka ili izlaza.

Sigurna uvođenja: Koristite canary, blue-green ili shadow testiranje s automatskim pragovima vraćanja.

Sigurnost i privatnost: Primijenite autorizaciju, ograničenja brzine i upravljanje tajnama te smanjite PII u zapisnicima.

Kako implementirati AI modele? Infografika

Članci koje biste možda željeli pročitati nakon ovog: 

🔗 Kako mjeriti performanse umjetne inteligencije
Naučite metrike, mjerila i provjere iz stvarnog svijeta za pouzdane rezultate umjetne inteligencije.

🔗 Kako automatizirati zadatke pomoću umjetne inteligencije
Pretvorite repetitivan rad u tijekove rada pomoću uputa, alata i integracija.

🔗 Kako testirati AI modele
Osmislite evaluacije, skupove podataka i bodovanje kako biste objektivno usporedili modele.

🔗 Kako razgovarati s umjetnom inteligencijom
Postavljajte bolja pitanja, postavite kontekst i brzo dobivajte jasnije odgovore.


1) Što zapravo znači „implementacija“ (i zašto to nije samo API) 🧩

Kada ljudi kažu "implementiraj model", mogu misliti na bilo što od ovoga:

Dakle, implementacija je manje "učiniti model dostupnim" a više poput:

To je kao otvaranje restorana. Kuhanje izvrsnog jela je važno, sigurno. Ali i dalje vam trebaju zgrada, osoblje, hlađenje, jelovnici, lanac opskrbe i način da se nosite s gužvom oko večere bez plakanja u zamrzivaču. Nije savršena metafora... ali shvaćate. 🍝


2) Što čini dobru verziju priručnika „Kako implementirati AI modele“ ✅

„Dobro raspoređivanje“ je dosadno na najbolji način. Ponaša se predvidljivo pod pritiskom, a kada se ne ponaša tako, možete to brzo dijagnosticirati.

Evo kako obično izgleda "dobro":

  • Reproducibilne verzije
    Isti kod + iste ovisnosti = isto ponašanje. Nema jezivih vibracija "radi na mom laptopu" 👻 ( Docker: Što je kontejner? )

  • Jasan ugovor o sučelju.
    Definirani su ulazi, izlazi, sheme i rubni slučajevi. Nema iznenađujućih tipova u 2 ujutro. ( OpenAPI: Što je OpenAPI?, JSON shema )

  • Performanse koje odgovaraju stvarnosti
    Latencija i propusnost mjerene na hardveru sličnom produkcijskom i realističnim korisnim opterećenjima.

  • Praćenje zubima
    Metrike, zapisnici, tragovi i provjere pomicanja koje pokreću radnju (ne samo nadzorne ploče koje nitko ne otvara). ( SRE knjiga: Praćenje distribuiranih sustava )

  • Strategija sigurne implementacije
    Canary ili plavo-zelena, jednostavno vraćanje na prethodno stanje, verzioniranje koje ne zahtijeva molitvu. ( Canary izdanje , plavo-zelena implementacija )

  • Svijest o troškovima
    "Brzo" je odlično dok račun ne izgleda kao telefonski broj 📞💸

  • Sigurnost i privatnost ugrađeni u
    upravljanje tajnama, kontrolu pristupa, rukovanje PII podacima i mogućnost revizije. ( Kubernetes Secrets , NIST SP 800-122 )

Ako to možete raditi dosljedno, već ste ispred većine timova. Budimo iskreni.


3) Odaberite pravi obrazac implementacije (prije nego što odaberete alate) 🧠

Zaključivanje API-ja u stvarnom vremenu ⚡

Najbolje kada:

  • korisnicima su potrebni trenutni rezultati (preporuke, provjere prijevara, chat, personalizacija)

  • odluke se moraju donijeti tijekom zahtjeva

Oprez:

Grupno bodovanje 📦

Najbolje kada:

  • predviđanja mogu biti odgođena (preko noći bodovanje rizika, predviđanje odljeva, obogaćivanje ETL-a) ( Amazon SageMaker Batch Transform )

  • želite isplativost i jednostavnije operacije

Oprez:

  • svježina podataka i dopunjavanja

  • održavanje logike značajki u skladu s treningom

Zaključivanje o strujanju 🌊

Najbolje kada:

  • Kontinuirano obrađujete događaje (IoT, clickstreamovi, sustavi za praćenje)

  • želite odluke gotovo u stvarnom vremenu bez strogog sustava zahtjeva i odgovora

Oprez:

Implementacija na rubu mreže 📱

Najbolje kada:

Oprez:

Prvo odaberi uzorak, a zatim odaberi stog. Inače ćeš završiti tako da kvadratni model pretvoriš u okrugli model. Ili nešto slično. 😬


4) Pakiranje modela kako bi preživio kontakt s proizvodnjom 📦🧯

Ovdje većina „jednostavnih implementacija“ tiho umire.

Verzija svega (da, svega)

  • Artefakt modela (težine, graf, tokenizator, mape oznaka)

  • Logika značajki (transformacije, normalizacija, enkoderi)

  • Inferencijski kod (prethodna/naknadna obrada)

  • Okruženje (Python, CUDA, sistemske biblioteke)

Jednostavan pristup koji funkcionira:

  • tretirajte model kao artefakt izdanja

  • pohranite ga s oznakom verzije

  • zahtijeva datoteku metapodataka u obliku kartice modela: shema, metrike, bilješke o snimkama podataka o obuci, poznata ograničenja ( Kartice modela za izvještavanje o modelu )

Kontejneri pomažu, ali ih nemojte obožavati 🐳

Kontejneri su odlični jer:

Ali i dalje morate upravljati:

  • ažuriranja osnovnih slika

  • Kompatibilnost upravljačkih programa za grafičku procesorsku karticu

  • sigurnosno skeniranje

  • veličina slike (nitko ne voli "pozdrav svijete" od 9 GB) ( najbolje prakse za izgradnju Dockera )

Standardizirajte sučelje

Odlučite se unaprijed za format ulaza/izlaza:

  • JSON radi jednostavnosti (sporiji, ali prijateljski) ( JSON shema )

  • Protobuf za performanse ( pregled Protocol Buffersa )

  • korisni sadržaji temeljeni na datotekama za slike/audio (plus metapodaci)

I molimo vas da provjerite unose. Nevažeći unosi su glavni uzrok problema s tiketima tipa "zašto vraća besmislene poruke". ( OpenAPI: Što je OpenAPI?, JSON shema )


5) Mogućnosti posluživanja - od „jednostavnog API-ja“ do poslužitelja s punim modelom 🧰

Postoje dvije uobičajene rute:

Opcija A: Poslužitelj aplikacije + inferencijski kod (pristup u stilu FastAPI-ja) 🧪

Pišete API koji učitava model i vraća predviđanja. ( FastAPI )

Prednosti:

  • jednostavno prilagoditi

  • izvrsno za jednostavnije modele ili proizvode u ranoj fazi

  • jednostavna autorizacija, usmjeravanje i integracija

Nedostaci:

  • vlastito podešavanje performansi (batching, threading, iskorištenost GPU-a)

  • Izmislit ćeš neke kotače, možda loše u početku

Opcija B: Model poslužitelja (pristup u stilu TorchServe / Triton) 🏎️

Specijalizirani poslužitelji koji obrađuju:

Prednosti:

  • bolji obrasci performansi odmah po instalaciji

  • jasnije razdvajanje između posluživanja i poslovne logike

Nedostaci:

  • dodatna operativna složenost

  • Konfiguracija se može činiti... nezgodnom, poput podešavanja temperature tuša

Hibridni uzorak je vrlo čest:


6) Tablica usporedbe - popularni načini implementacije (s iskrenim vibracijama) 📊😌

U nastavku slijedi praktičan pregled opcija koje ljudi zapravo koriste kada pokušavaju shvatiti kako implementirati AI modele .

Alat / Pristup Publika Cijena Zašto to funkcionira
Docker + FastAPI (ili slično) Mali timovi, startupi Slobodno Jednostavno, fleksibilno, brzo za isporuku - ipak ćete "osjetiti" svaki problem skaliranja ( Docker , FastAPI )
Kubernetes (uradi sam) Platformski timovi Infra-ovisno Kontrola + skalabilnost… također, puno gumba, neki od njih ukleti ( Kubernetes HPA )
Platforma za upravljano ML (usluga ML-a u oblaku) Timovi koji žele manje operacija Plaćanje po korištenju Ugrađeni tijekovi rada za implementaciju, hookovi za praćenje - ponekad skupi za krajnje točke koje su uvijek uključene ( implovina Vertex AI-a , SageMaker zaključivanje u stvarnom vremenu )
Besserverske funkcije (za lagano zaključivanje) Aplikacije vođene događajima Plaćanje po korištenju Odlično za prometne gužve - ali hladni startovi i veličina modela mogu vam uništiti dan 😬 ( AWS Lambda hladni startovi )
NVIDIA Triton Inference Server Timovi usmjereni na učinak Besplatni softver, troškovi infrastrukture Izvrsna iskorištenost GPU-a, batching, višemodelni - konfiguracija zahtijeva strpljenje ( Triton: Dinamičko batching )
TorchServe Timovi s puno PyTorcha Besplatni softver Pristojni zadani obrasci posluživanja - možda će biti potrebno podešavanje za veliku skalu ( TorchServe dokumentacija )
BentoML (pakiranje + posluživanje) Inženjeri strojnog učenja Besplatna jezgra, dodaci variraju Glatko pakiranje, ugodno iskustvo za razvojne programere - i dalje su vam potrebni izbori infrastrukture ( BentoML pakiranje za implementaciju )
Ray Serve Ljudi koji se bave distribuiranim sustavima Infra-ovisno Horizontalno skaliranje, dobro za cjevovode - osjeća se "veliko" za male projekte ( dokumentacija Ray Servea )

Napomena za stolom: „Besplatno“ je terminologija iz stvarnog života. Jer nikad nije besplatno. Uvijek negdje postoji račun, čak i ako je to vaš san. 😴


7) Performanse i skaliranje - latencija, propusnost i istina 🏁

Podešavanje performansi je mjesto gdje implementacija postaje vještina. Cilj nije "brzo". Cilj je dosljedno dovoljno brzo .

Ključne metrike koje su važne

Uobičajene poluge za povlačenje

  • Grupno generiranje
    Kombinirajte zahtjeve za maksimiziranje korištenja GPU-a. Izvrsno za propusnost, ali može smanjiti latenciju ako pretjerate. ( Triton: Dinamičko grupiranje )

  • Kvantizacija
    Niža preciznost (kao INT8) može ubrzati zaključivanje i smanjiti memoriju. Može malo smanjiti točnost. Ponekad ne, iznenađujuće. ( Kvantizacija nakon treniranja )

  • Kompilacija / optimizacija
    ONNX izvoza, optimizatori grafova, tokovi slični TensorRT-u. Moćno, ali otklanjanje pogrešaka može postati pikantno 🌶️ ( ONNX , optimizacije ONNX Runtime modela )

  • Keširanje
    Ako se unosi ponavljaju (ili možete keširati ugrađene dijelove), možete puno uštedjeti.

  • Automatsko skaliranje
    Skaliranje na temelju iskorištenosti CPU-a/GPU-a, dubine reda ili brzine zahtjeva. Dubina reda je podcijenjena. ( Kubernetes HPA )

Čudan, ali istinit savjet: mjerite s veličinama korisnog tereta sličnim produkcijskim. Sitni testni korisni tereti vas lažu. Oni se pristojno smiješe, a kasnije vas izdaju.


8) Praćenje i promatranje - nemojte letjeti naslijepo 👀📈

Praćenje modela nije samo praćenje vremena rada. Želite znati sljedeće:

Što pratiti (minimalni održivi skup)

Stanje usluge

Ponašanje modela

  • distribucije ulaznih značajki (osnovne statistike)

  • norme ugrađivanja (za modele ugrađivanja)

  • distribucije rezultata (pouzdanost, mješavina razreda, rasponi rezultata)

  • otkrivanje anomalija na ulazima (smeće na ulazu, smeće na izlazu)

Pomak podataka i pomak koncepta

Zapisivanje, ali ne pristup "zapisivanje svega zauvijek" 🪵

Zapisnik:

Budite oprezni s privatnošću. Ne želite da vaši zapisnici postanu izvor curenja podataka. ( NIST SP 800-122 )


9) CI/CD i strategije uvođenja - tretirajte modele kao prava izdanja 🧱🚦

Ako želite pouzdane implementacije, izgradite cjevovod. Čak i jednostavan.

Čvrst tok

  • Jedinični testovi za predprocesiranje i naknadno procesiranje

  • Integracijski test s poznatim "zlatnim skupom" ulazno-izlaznih parametara

  • Osnovna vrijednost testa opterećenja (čak i laganog)

  • Izgradnja artefakta (kontejner + model) ( najbolje prakse izgradnje Dockera )

  • Implementiraj u pripravno stanje

  • Puštanje kanarinca u mali dio prometa ( Puštanje kanarinca )

  • Postupno povećavajte

  • Automatsko vraćanje na ključne pragove ( Plavo-zelena implementacija )

Uzorci za rollout koji će vam spasiti razum

I verziraj svoje krajnje točke ili rute prema verziji modela. Budućnost će ti biti zahvalna. Trenutna će ti također biti zahvalna, ali tiho.


10) Sigurnost, privatnost i „molim vas, nemojte otkrivati ​​​​stvari“ 🔐🙃

Zaštita se obično pojavljuje kasno, poput nepozvanog gosta. Bolje je pozvati je rano.

Praktična kontrolna lista

  • Autentifikacija i autorizacija (tko može pozvati model?)

  • Ograničavanje brzine (zaštita od zloupotrebe i slučajnih oluja) ( usporavanje API pristupnika )

  • Upravljanje tajnama (nema ključeva u kodu, nema ključeva ni u konfiguracijskim datotekama…) ( AWS Secrets Manager , Kubernetes Secrets )

  • Mrežne kontrole (privatne podmreže, pravila o komunikaciji između usluga)

  • Zapisnici revizije (posebno za osjetljiva predviđanja)

  • Minimizacija podataka (pohranjujte samo ono što morate) ( NIST SP 800-122 )

Ako model dodiruje osobne podatke:

  • identifikatori za redigiranje ili hashiranje

  • izbjegavanje zapisivanja sirovih korisnih podataka ( NIST SP 800-122 )

  • definirati pravila zadržavanja

  • protok podataka dokumenata (dosadan, ali zaštitnički)

Također, promptno ubrizgavanje i zlouporaba izlaza mogu biti važni za generativne modele. Dodajte: ( OWASP Top 10 za LLM aplikacije , OWASP: Prompt Injection )

  • pravila za sanitizaciju ulaza

  • filtriranje izlaza gdje je to prikladno

  • zaštitne ograde za pozivanje alata ili radnje u bazi podataka

Nijedan sustav nije savršen, ali možete ga učiniti manje krhkim.


11) Uobičajene zamke (tj. uobičajene zamke) 🪤

Evo su klasici:

Ako ovo čitate i mislite „da, radimo dva takva“, dobrodošli u klub. Klub ima grickalice i blagi stres. 🍪


12) Zaključak - Kako implementirati AI modele bez gubitka razuma 😄✅

Implementacija je mjesto gdje umjetna inteligencija postaje pravi proizvod. Nije glamurozno, ali se stječe povjerenje.

Kratki sažetak

I da, kako implementirati AI modele u početku se može činiti kao žongliranje zapaljenim kuglama za kuglanje. Ali kada je vaš cjevovod stabilan, postaje čudno zadovoljavajuće. Kao da konačno organizirate pretrpanu ladicu... samo što je ladica proizvodni promet. 🔥🎳

Često postavljana pitanja

Što znači implementirati AI model u produkciji

Implementacija AI modela obično uključuje puno više od pukog izlaganja API-ja za predviđanje. U praksi to uključuje pakiranje modela i njegovih ovisnosti, odabir obrasca posluživanja (u stvarnom vremenu, u serijama, strujanju ili na rubu), skaliranje s pouzdanošću, praćenje stanja i pomicanja te postavljanje sigurnih puteva implementacije i vraćanja u prethodno stanje. Čvrsta implementacija ostaje predvidljivo stabilna pod opterećenjem i ostaje dijagnosticirana kada nešto pođe po zlu.

Kako odabrati između implementacije u stvarnom vremenu, serije, strujanja ili implementacije na rubu mreže

Odaberite obrazac implementacije na temelju toga kada su potrebna predviđanja i ograničenja pod kojima djelujete. API-ji u stvarnom vremenu odgovaraju interaktivnim iskustvima gdje je latencija važna. Grupno bodovanje najbolje funkcionira kada su kašnjenja prihvatljiva, a isplativost vodeća. Streaming odgovara kontinuiranoj obradi događaja, posebno kada semantika isporuke postane zahtjevna. Implementacija na rubu mreže idealna je za izvanmrežni rad, privatnost ili zahtjeve za ultra niskom latencijom, iako ažuriranja i varijacije hardvera postaju teže za upravljanje.

Koju verziju treba koristiti kako bi se izbjegle greške u implementaciji "radi na mom prijenosnom računalu"

Verzija je više od samih težina modela. Obično ćete htjeti verzirani artefakt modela (uključujući tokenizatore ili mape oznaka), logiku predobrade i značajki, kod za zaključivanje i potpuno okruženje za izvođenje (Python/CUDA/sistemske biblioteke). Tretirajte model kao artefakt izdanja s označenim verzijama i laganim metapodacima koji opisuju očekivanja sheme, bilješke o evaluaciji i poznata ograničenja.

Treba li implementirati jednostavnu uslugu u stilu FastAPI-ja ili namjenski modelni poslužitelj

Jednostavan aplikacijski poslužitelj (pristup u stilu FastAPI-ja) dobro funkcionira za rane proizvode ili jednostavne modele jer zadržavate kontrolu nad usmjeravanjem, autorizacijom i integracijom. Modelni poslužitelj (u stilu TorchServe ili NVIDIA Triton) može odmah pružiti jače batching, konkurentnost i učinkovitost GPU-a. Mnogi timovi se odluče na hibrid: modelni poslužitelj za zaključivanje plus tanki API sloj za autorizaciju, oblikovanje zahtjeva i ograničenja brzine.

Kako poboljšati latenciju i propusnost bez narušavanja točnosti

Započnite mjerenjem latencije p95/p99 na hardveru sličnom produkcijskom okruženju s realističnim korisnim opterećenjima, budući da mali testovi mogu zavarati. Uobičajene poluge uključuju batching (bolji protok, potencijalno lošija latencija), kvantizaciju (manje i brže, ponekad s umjerenim kompromisima u točnošću), tokove kompilacije i optimizacije (slično ONNX/TensorRT) i keširanje ponovljenih ulaza ili ugrađivanja. Automatsko skaliranje na temelju dubine reda također može spriječiti porast latencije repa.

Koji je nadzor potreban osim "krajnja točka je aktivna"

Samo vrijeme rada nije dovoljno jer usluga može izgledati zdravo dok kvaliteta predviđanja opada. Minimalno, pratite količinu zahtjeva, stopu pogrešaka i distribuciju latencije, plus signale zasićenja poput CPU/GPU/memorije i vremena čekanja. Za ponašanje modela pratite distribuciju ulaza i izlaza zajedno s osnovnim signalima anomalija. Dodajte provjere pomaka koje pokreću akciju umjesto bučnih upozorenja te zapisujte ID-ove zahtjeva, verzije modela i ishode validacije sheme.

Kako sigurno uvesti nove verzije modela i brzo se oporaviti

Tretirajte modele kao puna izdanja, s CI/CD cjevovodom koji testira predprocesiranje i naknadno obradu, provodi provjere integracije u odnosu na „zlatni skup“ i uspostavlja osnovnu liniju opterećenja. Za uvođenja, Canary izdanja postupno povećavaju promet, dok blue-green održava stariju verziju aktivnom za trenutni povratak. Shadow testiranje pomaže u procjeni novog modela na stvarnom prometu bez utjecaja na korisnike. Vraćanje bi trebao biti mehanizam prve klase, a ne naknadna misao.

Najčešće zamke pri učenju implementacije AI modela

Neravnomjerno korištenje treninga i posluživanja je klasičan slučaj: predobrada se razlikuje između treninga i produkcije, a performanse se tiho smanjuju. Drugi čest problem je nedostatak validacije sheme, gdje promjena uzvodno suptilno prekida ulazne podatke. Timovi također podcjenjuju latenciju repa i previše se fokusiraju na prosjeke, zanemaruju troškove (neaktivni GPU-ovi se brzo zbrajaju) i preskaču planiranje vraćanja na prethodno stanje. Praćenje samo vremena rada posebno je rizično, jer "aktivan, ali kriv" može biti gore od pada.

Reference

  1. Amazon Web Services (AWS) - Amazon SageMaker: Zaključivanje u stvarnom vremenu - docs.aws.amazon.com

  2. Amazon Web Services (AWS) - Amazon SageMaker Batch Transform - docs.aws.amazon.com

  3. Amazon Web Services (AWS) - Amazon SageMaker Model Monitor - docs.aws.amazon.com

  4. Amazon Web Services (AWS) - Ograničavanje zahtjeva API Gatewaya - docs.aws.amazon.com

  5. Amazon Web Services (AWS) - AWS Secrets Manager: Uvod - docs.aws.amazon.com

  6. Amazon Web Services (AWS) - Životni ciklus izvršnog okruženja AWS Lambda - docs.aws.amazon.com

  7. Google Cloud - Vertex AI: Implementirajte model na krajnju točku - docs.cloud.google.com

  8. Google Cloud - Pregled praćenja Vertex AI modela - docs.cloud.google.com

  9. Google Cloud - Vertex AI: Praćenje nagiba i pomaka značajki - docs.cloud.google.com

  10. Google Cloud Blog - Protok podataka: načini strujanja točno jednom u odnosu na barem jednom - cloud.google.com

  11. Google Cloud - Načini strujanja toka podataka u oblaku - docs.cloud.google.com

  12. Google SRE knjiga - Nadzor distribuiranih sustava - sre.google

  13. Google Research - Rep u mjerilu - research.google

  14. LiteRT (Google AI) - LiteRT pregled - ai.google.dev

  15. LiteRT (Google AI) - LiteRT zaključak na uređaju - ai.google.dev

  16. Docker - Što je kontejner? - docs.docker.com

  17. Docker - Najbolje prakse za izgradnju Dockera - docs.docker.com

  18. Kubernetes - Tajne Kubernetesa - kubernetes.io

  19. Kubernetes - Automatsko skaliranje horizontalnog pod-a - kubernetes.io

  20. Martin Fowler - Izdanje kanaraca - martinfowler.com

  21. Martin Fowler - Plavo-zeleno raspoređivanje - martinfowler.com

  22. OpenAPI inicijativa - Što je OpenAPI? - openapis.org

  23. JSON shema - (referencirana stranica) - json-schema.org

  24. Protokolni međuspremnici - Pregled protokolnih međuspremnika - protobuf.dev

  25. FastAPI - (referencirano mjesto) - fastapi.tiangolo.com

  26. NVIDIA - Triton: Dinamičko grupiranje i istodobno izvršavanje modela - docs.nvidia.com

  27. NVIDIA - Triton: Istovremeno izvršavanje modela - docs.nvidia.com

  28. NVIDIA - Dokumentacija za Triton Inference Server - docs.nvidia.com

  29. PyTorch - TorchServe dokumentacija - docs.pytorch.org

  30. BentoML - Pakiranje za implementaciju - docs.bentoml.com

  31. Ray - Ray Poslužuje dokumente - docs.ray.io

  32. TensorFlow - Kvantizacija nakon treninga (Optimizacija modela TensorFlow) - tensorflow.org

  33. TensorFlow - Validacija podataka TensorFlowa: otkrivanje nagiba prilikom posluživanja obuke - tensorflow.org

  34. ONNX - (referencirano mjesto) - onnx.ai

  35. ONNX Runtime - Optimizacije modela - onnxruntime.ai

  36. NIST (Nacionalni institut za standarde i tehnologiju) - NIST SP 800-122 - csrc.nist.gov

  37. arXiv - Kartice modela za izvještavanje o modelima - arxiv.org

  38. Microsoft - Sjenovito testiranje - microsoft.github.io

  39. OWASP - OWASP Top 10 za prijave na LLM - owasp.org

  40. OWASP GenAI sigurnosni projekt - OWASP: Brzo ubrizgavanje - genai.owasp.org

Pronađite najnoviju umjetnu inteligenciju u službenoj trgovini AI Assistant

O nama

Natrag na blog