Regulējums, kas var uzvarēt pats sevi
Esmu pavadījis pēdējo gadu 4. panta tekstā. Rindu pēc rindas, frāzi pēc frāzes, kartējot katru operatīvo elementu ar organizāciju praktisko realitāti, kas mēģina panākt atbilstību. Twin Ladder ietvars pastāv šī darba dēļ. Un tā gaitā es atklāju kaut ko tādu, ko regulējuma autori gandrīz noteikti nebija paredzējuši.
EU AI akta 4. pants satur strukturālu pretrunību. Tas prasa AI pratību, kamēr tā paša burts var aizliegt visefektīvāko metodi tās sasniegšanai.
Šī nav pedantiska juridiska nianse. Tas ir dizaina trūkums, kas, ja netiks novērsts, radīs tieši to tukšo atbilstības teātri, kas pārvērta GDPR par sīkdatņu baneru vingrinājumu. Organizācijas, kas ir visnopietnāk apņēmušās veidot patiesu AI kompetenci, var nonākt sliktākā regulatīvā pozīcijā nekā tās, kas samierinās ar PowerPoint prezentāciju un ķeksīti.
Ļaujiet man precīzi izskaidrot, kāpēc.
1. Ko 4. pants faktiski saka
Pilns 4. panta teksts ir viens teikums:
Nodrošinātāji un ieviesēji veic pasākumus, lai, ciktāl iespējams, nodrošinātu pietiekamu AI pratības līmeni savam personālam un citām personām, kas viņu vārdā nodarbojas ar AI sistēmu darbību un lietošanu, ņemot vērā to tehniskās zināšanas, pieredzi, izglītību un apmācību, kontekstu, kādā AI sistēmas paredzēts izmantot, un apsverot personas vai personu grupas, uz kurām AI sistēmas paredzēts izmantot.
Septiņi operatīvie elementi. Obligāti no 2025. gada 2. februāra. Sodus par neatbilstību noteiks dalībvalstu nacionālie tiesību akti, ar AI akta vispārējo sodu ietvaru, kas paredz naudas sodus līdz 15 miljoniem EUR vai 3% no globālā gada apgrozījuma par operatora pienākumu pārkāpumiem. Nav lieluma atbrīvojuma, nav nozares atbrīvojuma, nav de minimis sliekšņa.
Eiropas Komisijas jautājumi un atbildes no 2025. gada maija precizēja, ka vienkārša paļaušanās uz AI sistēmu lietošanas instrukcijām vai lūgums darbiniekiem tās izlasīt "var būt neefektīva un nepietiekama." Vienots apmācību formāts neatbilst prasībai ņemt vērā "tehniskās zināšanas, pieredzi, izglītību un apmācību." Pienākums attiecas arī uz darbuzņēmējiem, pagaidu darbiniekiem un ārpakalpojumu sniedzējiem.
Tas ir nopietns likumdošanas darbs. Nolūks aiz tā — 20. apsvērums runā par cilvēku apgādāšanu "ar nepieciešamajiem priekšstatiem informētu lēmumu pieņemšanai par AI sistēmām" — ir pilnīgi pareizs. Cilvēkiem, kas izmanto AI, jāsaprot, ko viņi lieto. No manas puses nav iebildumu pret mērķi.
Problēma ir tajā, kas notiek, kad mēģināt sasniegt šo mērķi mērogā.
2. Nolūks pret burtu
- pants tika rakstīts ar noteiktu mentālo modeli: tehnoloģiju uzņēmums izveido AI sistēmu, ievieš to, un cilvēkiem, kas ar to saskaras, jāsaprot, ko tā dara. Nodrošinātājs izglīto ieviesēju, ieviesējs izglīto personālu. Saprātīga pienākumu ķēde.
Bet tirgus ir aizgājis tālu ārpus šī modeļa. AI vairs nav diskrēta sistēma, ko jūs ieviešat. Tas ir ieausts organizācijas darba plūsmu audeklā. Jūsu e-pasta klients to izmanto. Jūsu CRM to izmanto. Jūsu dokumentu pārvaldības sistēma to izmanto. Jūsu HR platforma to izmanto atlases, grafiku veidošanas, vērtēšanas un snieguma izsekošanas nolūkos. Jūsu juridiskās izpētes rīki to izmanto. Jūsu finanšu komandas prognozēšanas rīki to izmanto.
Komisija atzina šo plašumu — jautājumos un atbildēs apstiprināts, ka pienākums attiecas uz visām AI sistēmām, ne tikai augsta riska sistēmām. Bet regulējuma arhitektūra joprojām pieņem ieviešanas modeli, kurā pastāv skaidra robeža starp "AI sistēmu" un "cilvēkiem, kas to lieto."
Šī robeža ir izšķīdusi.
Kad juridiskā firma ievieš AI vadītu izpētes rīku, tā ievieš AI sistēmu saviem juristiem. 4. pants prasa firmai nodrošināt, ka šiem juristiem ir pietiekama AI pratība. Godīgi. Bet kā firma veido šo pratību? Visefektīvākā metode — metode, kas ņem vērā individuālās tehniskās zināšanas, pieredzi un apmācības kontekstu, kā pats 4. pants to prasa — ir AI vadīta adaptīvā mācību sistēma. Sistēma, kas novērtē katra cilvēka sākuma līmeni, nodrošina personalizētu apmācību, pārbauda izpratni ar scenāriju vingrinājumiem un attīstās līdz ar gan mācītāju, gan tehnoloģiju.
Lūk, problēma: šī mācību sistēma pati ir AI sistēma, kas ieviesta personālam. Kas nozīmē, ka tā aktivizē savus 4. panta pienākumus. Personāls tagad ir jāapmāca par apmācību AI. Un sistēma, kas tiek izmantota, lai apmācītu viņus par apmācību AI? Ja tā ir AI vadīta — un arvien biežāk, kas gan nav? — tā aktivizē vēl vienu pienākumu slāni.
Šis nav hipotētisks scenārijs. Tā ir loģiska struktūra, kas iestrādāta regulējuma tekstā. 4. pants attiecas uz visām AI sistēmām. Tas neatbrīvo AI sistēmas, kas tiek izmantotas atbilstības nolūkos. Tas nerada izņēmumu AI, kas tiek izmantots apmācībās. Pienākums ir universāls.
Rezultāts ir bezgalīga regresija. Katrs AI atbalstītās atbilstības slānis ģenerē jaunu atbilstības pienākumu. Regulējumā nav terminācijas nosacījuma.
3. Kompetences degradācijas paradokss
Bezgalīgā regresija būtu tikai kaitinoša, ja alternatīva — apmācība bez AI — būtu pietiekama. Tā nav.
Pētījumi par AI atbalstītu darbu konsekventi atklāj dubultu dabu. Kad profesionāļi izmanto AI rīkus kā automatizāciju — auto-papildināšanu, auto-lēmumus, auto-ģenerēšanu — viņu neatkarīgā spēja degradējas laika gaitā. Jaunais jurists, kas no pirmās dienas izmanto AI izpētes atzinumu sagatavošanai, nekad neattīsta spēju patstāvīgi identificēt atbilstošu tiesu praksi. Iepirkumu analītiķis, kas pārskata AI apkopotos sarakstus, nekad neiemācās lasīt pamatā esošos RFP. HR speciālists, kas paļaujas uz AI atlasi, nekad neattīsta spriedumu atpazīt spēcīgu kandidātu nestandarta CV.
Esmu vērojis šo modeli dažādās nozarēs divdesmit gadus, ilgi pirms pašreizējā AI viļņa. EDS 2004. gadā mēs dokumentējām, kā kodificēšana standarta kategorijās — mainframe, midframe, desktop — sistemātiski izspieda inovatīvos domātājus, kas strādāja pāri robežām. Philip Morris 5 miljardi dolāru gadā pazuda rigīdu sistēmu uzturēšanā, kamēr transformācijas kapacitāte nokritās līdz nullei. Modelis ir strukturāls, nevis tehnoloģisks: kad optimizējat efektivitāti, kodificējot zināšanas, jūs zaudējat perifēro mācīšanos, kas notiek starpās.
AI paātrina šo modeli par lieluma kārtu.
Bet lūk, ko regulējums pilnībā neievēro: tie paši AI rīki, ieviesti citādi, var uzlabot, nevis degradēt kompetenci. AI sistēma, kas izskaidro savu argumentāciju, piedāvā alternatīvas, pārbauda lietotāja izpratni un pielāgojas lietotāja prasmju līmenim, nav automatizācija. Tā ir izglītība. Atšķirība nav tehnoloģijā. Tā ir ieviešanas režīmā.
Apsveriet divus viena un tā paša liela valodas modeļa lietojumus juridiskā firmā:
A režīms — automatizācija: Jurists ieraksta "sagatavo noraidīšanas pieteikumu" un iesniedz AI rezultātu ar minimālu pārskatīšanu. Laika gaitā jurista sagatavošanas prasme atrofējas. Kompetence degradējas.
B režīms — mācīšanās: AI piedāvā trīs iespējamās pieejas pieteikumam, lūdz juristam novērtēt, kura ir spēcīgākā šajā jurisdikcijā, izskaidro argumentāciju aiz katras iespējas un atzīmē jomas, kur jurista analīze atšķiras no iedibinātā precedenta. Jurista spriedums kļūst asāks ar katru mijiedarbību. Kompetence veidojas.
Viena un tā pati tehnoloģija. Viens un tas pats modelis. Viens un tas pats ieviešanas konteksts. Pretēja ietekme uz cilvēcisko kompetenci.
- pants neatšķir šos divus režīmus. Nemaz. Regulējums runā par "AI sistēmām" kā kategoriju. Tas neatšķir AI-kā-automatizāciju un AI-kā-mācību-instrumentu. Organizācija, kas ievieš B režīmu — režīmu, kas faktiski sasniedz 4. panta deklarēto mērķi veidot pratību — saskaras ar to pašu atbilstības slogu kā organizācija, kas ievieš A režīmu.
Šis ir kompetences degradācijas paradokss regulatīvā formā. Organizācija, kas aizliedz AI, lai "aizsargātu kompetenci," neatbilst pratības prasībai. Organizācija, kas ievieš AI mācīšanās nolūkos, var pārkāpt burtu, izpildot garu.
4. Pašmācīšanās sistēmas problēma
Lai 4. panta atbilstība būtu jēgpilna, nevis veiktu tikai rituālu, tai jāattīstās līdz ar tehnoloģiju. Tā nav izvēle. Tā ir strukturāla prasība.
Apmācību programma, kas izstrādāta 2025. gada martā, māca personālam par GPT-4 klases spējām. Līdz 2026. gada martam tehnoloģija ir pārgājusi uz multimodāliem aģentiem, kas var pārlūkot tīmekli, izpildīt kodu, analizēt dokumentus un veikt darbības patstāvīgi. 2025. gada programma nav tikai novecojusi — tā aktīvi maldina. Personāls, kas apmācīts par 2025. gada spējām, nepareizi novērtēs 2026. gada sistēmu riskus un ierobežojumus. "Pietiekamais AI pratības līmenis," ko 4. pants prasa, ir kustīgs mērķis, un tas kustas ātrāk, nekā jebkura mācību programmu komiteja spēj sekot.
Vienīgais veids, kā uzturēt patiesi pietiekamu pratību, ir nepārtraukta, adaptīva mācīšanās. Ne ikgadēji atsvaidzināšanas kursi. Ne ceturkšņa vebināri. Nepārtraukta adaptācija, kas izseko, ko tehnoloģija spēj, ko organizācija ievieš un kas katram indivīdam jāzina.
Visefektīvākā sistēma nepārtrauktas, adaptīvas, personalizētas mācīšanās nodrošināšanai ir — neizbēgami — AI sistēma.
Un šeit paradokss noslēdz savu loku. Atbilstības sistēmai jābūt AI vadītai, lai būtu efektīva. Bet AI vadītas atbilstības sistēmas ieviešana aktivizē atbilstības pienākumu šai sistēmai. Un tā kā pašai atbilstības sistēmai ir nepārtraukti jāattīstās, nav stabila punkta, kurā pienākums ir "izpildīts." Organizācija pastāvīgi ievieš jaunas AI spējas savam personālam, pastāvīgi ģenerējot jaunus 4. panta pienākumus.
Regulējumā nav noteikumu šim gadījumam. Nav koncepta "pašattīstoša atbilstības sistēma" nekur AI aktā. Nav mehānisma, kas atzītu, ka atbilstības rīks un atbilstības pienākums ir viena un tā pati lieta. Autori pieņēma statisku pasauli — ievies sistēmu, apmāci personālu, dokumentē centienus, dodies tālāk. Tehnoloģija ir padarījusi šo pieņēmumu nepamatotu.
5. Birokrātiskās lamatas
Neesmu naivs par to, kā regulējums darbojas praksē. Izpildes iestādes vadās pēc teksta, nevis gara. Tirgus uzraudzības iestādes katrā dalībvalstī novērtēs atbilstību, balstoties uz to, ko 4. pants saka, nevis to, ko tas bija domāts sasniegt.
Apsveriet, kas notiek, kad izpildes iestāde pārbauda organizāciju, kas izmanto AI, lai mācītu AI pratību. Iestāde jautās:
Izpratne: Vai personāls zina, ka apmācību sistēma ir AI vadīta? Vai viņi apzinās tās spējas un ierobežojumus? Vai viņi spēj formulēt, kā tā ģenerē mācību saturu un novērtējumus?
Politika: Vai pastāv dokumentēta politika, kas regulē AI apmācību sistēmas izmantošanu? Vai tā definē apmācību AI pieļaujamos un aizliegtos lietojumus? Vai tā tiek izpildīta?
Apmācība: Vai personāls ir apmācīts par to, kā darbojas AI apmācību sistēma? Vai viņi saprot tās datu apstrādi? Vai viņi spēj identificēt, kad apmācību sistēmas rezultāts var būt neuzticams?
Pierādījumi: Vai AI apmācību sistēmas efektivitāte ir dokumentēta? Vai pastāv ieraksti, kas apliecina, ka tā faktiski uzlabo pratību? Vai pastāv proporcionalitātes novērtējums, kas pamato AI izmantošanu apmācībā?
Katrs no šiem jautājumiem ir leģitīms saskaņā ar 4. panta tekstu. Katrs rada atbilstības izmaksas. Un katrs tiek piemērots papildus atbilstības darbam par faktiskajām AI sistēmām, par kurām organizācija mēģina apmācīt savu personālu.
Kumulatīvā ietekme ir birokrātiskas lamatas. Organizācija, kas izvēlas visefektīvāko pieeju patiesas AI pratības veidošanai — adaptīvu, AI vadītu mācību sistēmu — nes smagāko atbilstības slogu. Organizācija, kas samierinās ar statisku PowerPoint prezentāciju un parakstu lapu, saskaras ar minimālu kontroli, jo PowerPoint nav AI sistēma un neaktivizē savu 4. panta pienākumu.
Regulējums netīšām rada perversu stimulu: jo neefektīvāka jūsu apmācību metode, jo vieglāks jūsu atbilstības pienākums.
6. HR aklā zona
Paradokss kļūst akūts cilvēkresursu jomā, kur AI ieviešana jau ir dziļa un lielākoties nepārbaudīta saskaņā ar 4. pantu.
AI personāla atlasē: CV sijāšana, pieteikumu parsēšana, interviju plānošana, video novērtējumu veikšana, kandidātu vērtēšana pēc komunikācijas un kompetences rādītājiem. AI apmācībā: personalizēti mācību ceļi, kompetences novērtēšana, prasmju trūkumu analīze, snieguma prognozēšana. AI snieguma vadībā: produktivitātes izsekošana, noskaņojuma analīze, atgriezeniskās saites ģenerēšana, paaugstināšanas rekomendācija. AI darbaspēka plānošanā: atbiruma prognozēšana, talantu kartēšana, pēctecības plānošana.
Šie nav nākotnes scenāriji. Tā ir ieviesta realitāte tūkstošiem Eiropas organizāciju šodien. Katra lielā HR platforma — Workday, SAP SuccessFactors, Oracle HCM, BambooHR — ir iestrādājusi AI spējas, kas ir aktīvas pēc noklusējuma. Daudzi HR profesionāļi, kas lieto šīs sistēmas, nezina, kuras funkcijas ir AI vadītas un kuras nav.
- pants prasa AI pratību "personām vai personu grupām, uz kurām AI sistēmas paredzēts izmantot." HR kontekstā tas ietver darba kandidātus, apmācāmos un darbiniekus, kuri tiek novērtēti. Darba pretendents, kura CV tiek sijāts ar AI sistēmu, ir persona, uz kuru AI sistēma tiek izmantota. 4. pants neapšaubāmi prasa ieviesējam ņemt vērā šī pretendenta izpratni par AI sistēmu.
Bet tam nav praktiska mehānisma. Jūs nevarat prasīt darba pretendentiem pabeigt AI pratības kursu pirms pieteikšanās. Jūs nevarat apmācīt katru darbinieku par katru AI vadītu HR rīku, kas apstrādā viņu datus, it īpaši kad šie rīki mainās katru ceturksni, piegādātājiem atjauninot savas platformas.
Un lūk, dziļākā problēma: tā pati HR nodaļa, kurai jānodrošina AI pratība savam darbaspēkam, pati ir viens no smagākajiem AI lietotājiem, bieži bez iekšējās pratības, lai saprastu savus rīkus. Esmu redzējis HR komandas, kas ievieš AI vadītas iesaistes aptaujas, nesaprotot, ka noskaņojuma analīze ir AI vadīta. Esmu redzējis personāla atlases komandas, kas lieto AI sijāšanas rīkus ar piegādātāja konfigurētiem aizspriedumu parametriem, kurus tās nespēj izskaidrot.
Regulējums izturas pret klientu apkalpošanas čatbotu un darbā pieņemšanas algoritmu ar vienu un to pašu 4. panta pienākumu. Nav graduētas prasības, pamatojoties uz iesaistīto likmju apmēru. Čatbots, kas rekomendē produktus, un algoritms, kas nosaka, vai kāds saņems darba interviju, ir pakļauti vienam un tam pašam viena teikuma pienākumam.
Šī ir HR aklā zona: 4. pants rada pienākumu, neatzīstot, ka nodarbinātība ir viens no augstāko likmju ieviešanas kontekstiem AI jomā, un nesniedzot nekādu specifisku mehānismu unikālajiem izaicinājumiem, ko rada AI darba attiecībās.
7. Klasifikācijas lamatas: kad atbilstības rīki kļūst par augsta riska sistēmām
Paradokss padziļinās, pārbaudot, kā paša AI akta klasifikācijas sistēma izturas pret AI izglītībā un apmācībā.
III pielikuma 3. joma nosaka četrus ar izglītību saistītus AI lietojumus kā augsta riska: piekļuves izglītībai noteikšanu, mācību rezultātu novērtēšanu, piemērotā izglītības līmeņa noteikšanu indivīdam un uzvedības uzraudzību testu laikā. III pielikuma 4. joma atsevišķi klasificē nodarbinātības AI kā augsta riska: personāla atlase, snieguma novērtēšana, uzdevumu sadalīšana, paaugstināšana un atlaišanas lēmumi.
Un šeit tas kļūst absurds. 5. panta 1. punkta f) apakšpunkts aizliedz emociju atpazīšanu izglītības un darbavietas kontekstos pilnībā. AI apmācību sistēma, kas nosaka, vai mācītājs ir apjucis vai zaudējis interesi — neapšaubāmi visnoderīgākā adaptīvās mācīšanās funkcija — ir pilnīgi aizliegta.
Tagad apsveriet, kas notiek, kad organizācija mēģina panākt atbilstību 4. pantam, izmantojot AI:
1. scenārijs: AI kompetences novērtējums. Organizācija ievieš rīku, kas novērtē personāla AI pratības līmeņus un rekomendē apmācību. Šis rīks novērtē mācību rezultātus (III pielikums, 3. joma (b)) un var novērtēt piemēroto izglītības līmeni indivīdam (3. joma (c)). Tas ir augsta riska. Tam jāiziet atbilstības novērtējums, jāievieš cilvēciskā pārraudzība, jāuztur reģistrācija, jāveic pamattiesību ietekmes novērtējums un jāinformē skartās personas. Atbilstības rīks 4. pantam aktivizē III nodaļas pienākumus, kas ir smagāki nekā pats 4. pants.
2. scenārijs: AI vadīta apmācību platforma. Organizācija ievieš adaptīvu AI pasniedzēju personāla kompetences veidošanai. Ja pasniedzējs novērtē, vai mācītājs ir sasniedzis kompetenci — kas ir visa būtība — tas iekļaujas 3. jomā (b). Augsta riska. Ja pasniedzējs nosaka frustrāciju un pielāgo pieeju, izmantojot biometriskos signālus, tas ir ne tikai augsta riska, bet aizliegts saskaņā ar 5. panta 1. punkta f) apakšpunktu.
3. scenārijs: HR izmanto AI darbaspēka gatavībai. HR nodaļa izmanto AI, lai novērtētu, kuriem darbiniekiem nepieciešama AI pratības apmācība un kādā līmenī. Tas vienlaikus aktivizē 3. jomu (c) (piemērotā izglītības līmeņa novērtēšana) un 4. jomu (b) (snieguma novērtēšana). HR komanda tagad ievieš augsta riska AI sistēmu, kurai pašai nepieciešama 4. panta atbilstība cilvēkiem, kas to darbina.
- panta 3. punkts piedāvā četras atkāpes — šauri procesuāli uzdevumi, iepriekšēja cilvēciskā darba uzlabošana, modeļu noteikšana bez cilvēciskā novērtējuma aizvietošanas un sagatavošanas uzdevumi. Bet pastāv kritisks pārsvars: jebkura sistēma, kas veic fizisku personu profilēšanu, vienmēr ir augsta riska, neatkarīgi no atkāpēm. Kompetences novērtējums, kas piešķir punktus indivīdiem, ir profilēšana. Apmācību rekomendāciju dzinējs, kas kategorizē mācītājus pēc spēju līmeņa, ir profilēšana. Atkāpju izejas ir bloķētas.
Regulējums faktiski ir klasificējis visefektīvākos 4. panta atbilstības rīkus kā augsta riska sistēmas, kurām nepieciešama sava atbilstības infrastruktūra. Tā nav teorētiska bažas. Tā ir likuma arhitektūra.
HR nodaļām sekas ir īpaši smagas. Katra lielā HR platforma — Workday, SAP SuccessFactors, Oracle HCM, BambooHR — ir iestrādājusi AI personāla atlasē, snieguma vadībā, mācībās un darbaspēka plānošanā. Katra no šīm spējām var patstāvīgi kvalificēties kā augsta riska saskaņā ar 3. vai 4. jomu. III nodaļas pienākumi ieviesējiem (26. pants) ietver: sistēmas lietošanu saskaņā ar nodrošinātāja instrukcijām, kompetentu cilvēcisko pārraudzību ar pilnvarām iejaukties, ievaddatu kvalitātes nodrošināšanu, uzraudzību un ziņošanu par aizdomīgiem riskiem, sistēmu žurnālu saglabāšanu vismaz sešus mēnešus, darbinieku un viņu pārstāvju informēšanu pirms ieviešanas, skarto personu informēšanu, kad sistēma palīdz pieņemt lēmumus par tām, datu aizsardzības ietekmes novērtējuma veikšanu un sadarbību ar regulatīvajām iestādēm.
HR nodaļa, kas ievieš četras AI vadītas darba plūsmas — atlasi, snieguma analītiku, mācību rekomendācijas un darbaspēka plānošanu — potenciāli saskaras ar četrām atsevišķām III nodaļas pienākumu kopām, četriem atbilstības dokumentācijas pieprasījumiem piegādātājiem, četriem cilvēciskās pārraudzības norīkojumiem, četrām žurnālu kopām un četriem paziņošanas pienākumiem. Katrai no šīm darba plūsmām arī nepieciešama 4. panta pratība HR profesionāļiem, kas tās darbina. Un AI sistēma, kas tiek izmantota šīs pratības veidošanai, pati var būt piektā augsta riska ieviešana.
Šīs ir klasifikācijas lamatas: regulējuma paša risku taksonomija pārvērš atbilstības paātrināšanu atbilstības pavairošanā.
8. Kas trūkst
Strukturālās problēmas 4. pantā izriet no piecām specifiskām prombūtnēm:
Nav regulatīvās mācīšanās mehānisma. AI akts ir statisks teksts. Tas nevar atjaunināt pats sevi, spējām attīstoties. Komisija var izdot vadlīnijas un jautājumus un atbildes, bet tās ir maigās tiesības. Regulējuma atbilstības arhitektūra pieņem stabilu tehnoloģiju, kas ir vienīgais, kas AI nav.
Nav atšķirības starp AI-kā-automatizāciju un AI-kā-mācību-rīku. Viens un tas pats modelis, kas vada klientu apkalpošanas botu un profesionālās attīstības platformu, aktivizē identiskus pienākumus. Tas neatzīst, ka riska profils, ietekme uz kompetenci un piemērotais pārvaldības modelis ir fundamentāli atšķirīgi starp šiem ieviešanas režīmiem.
Nav drošā patvēruma AI, kas tiek izmantots atbilstības un apmācību kontekstos. Organizācijām, kas izmanto AI 4. panta atbilstības sasniegšanai, nevajadzētu saskarties ar tādu pašu slogu kā organizācijām, kas ievieš AI augstu likmju lēmumu pieņemšanā. Jebkāda atbrīvojuma vai vieglāka pienākuma neesamība atbilstības orientētai AI ieviešanai rada iepriekš aprakstīto bezgalīgo regresiju.
Nav graduētu pienākumu, pamatojoties uz ieviešanas likmēm. 4. pants ir viens pienākums visām AI sistēmām. Teksta autopapildināšana e-pasta klientā un algoritms, kas nosaka kredītspēju, nes to pašu pratības prasību. Proporcionalitātes princips ("ciktāl iespējams") nodrošina zināmu intensitātes elastību, bet ne struktūras. Tie paši seši jautājumi tiek piemēroti. Tie paši pierādījumi tiek gaidīti.
Nav noteikumu paradoksam, ka labākais atbilstības rīks ir AI sistēma. Regulējums pieņem, ka atbilstības rīki ir atsevišķi no regulējamām sistēmām. Kad atbilstības rīks ir regulētā tehnoloģija, regulatīvā arhitektūra rada cilpu bez izejas nosacījuma.
9. Ceļš uz priekšu
Gribu būt precīzs par to, ko es nesaku. Es nesaku, ka 4. pants ir nepareizs. Gars — ka cilvēkiem, kurus AI sistēmas skar un kuri tās lieto, tās jāsaprot — ir vissvarīgākais noteikums visā AI aktā. Tas ir pamats, uz kura balstās jēgpilna pārraudzība, cilvēciskā aģentūra un demokrātiskā atbildība. Bez pratības katrs cits regulējuma aizsargmehānisms ir teātris.
Tas, ko es saku, ir tas, ka burts ir pārāk tieša.
Trīs strukturālas izmaiņas atrisinātu paradoksu, saglabājot — un stiprinot — nolūku:
Pirmkārt: izveidot "mācību ieviešanas" kategoriju. AI sistēmām, kas ieviestas galvenokārt kompetences attīstīšanai, apmācībai un atbilstībai, jānes vieglāki pienākumi nekā AI sistēmām, kas ieviestas lēmumu pieņemšanai vai automatizācijai. Atšķirība nav tehnoloģijā. Tā ir ieviešanas mērķī. Mācību ieviešana uzlabo cilvēciskās spējas. Automatizācijas ieviešana tās var mazināt. Regulējumam jāatzīst šī atšķirība.
Tas nenozīmē atbrīvojumu. Mācību AI sistēmai joprojām jāprasa caurspīdīgums (personālam jāzina, ka tā ir AI), pamata pārvaldība (kāds ir atbildīgs par tās kvalitāti) un efektivitātes dokumentācija (pierādījumi, ka tā darbojas). Bet atbilstības slogam jābūt proporcionālam riskam, un apmācību rīka riska profils kategoriski atšķiras no darbā pieņemšanas algoritma riska profila.
Otrkārt: noteikt nepārtrauktu atbilstību, nevis punkta novērtējumu. 4. panta arhitektūra — "veic pasākumus, lai nodrošinātu" — netieši pieņem atbilstības brīdi: jūs veicat pasākumus, nodrošināt pratību, dokumentējat pierādījumus. Bet pratību pret kustīgu tehnoloģisko fronti nevar nodrošināt vienā brīdī. Tā ir jāuztur nepārtraukti.
Regulējumam vajadzētu skaidri atzīt, ka AI pratība ir process, nevis stāvoklis. Atbilstība būtu jānovērtē, pamatojoties uz to, vai organizācijai ir aktīvi, attīstoši kompetences veidošanas mehānismi, nevis vai tā veica apmācību konkrētā datumā. Ikgadēji ķeksīšu auditi AI pratībai ir sliktāk nekā bezjēdzīgi — tie rada viltus atbilstības sajūtu, kamēr kompetence erodē starp auditu cikliem.
Treškārt: mērīt kompetences rezultātus, nevis atbilstības ievaddatus. Pašreizējais ietvars, pēc nepieciešamības, tiks izpildīts, pamatojoties uz ievaddatiem: Vai jūs veicāt pasākumus? Vai jūs tos dokumentējāt? Vai jūs diferencējāt pēc lomas? Tie ir procesa jautājumi. Tie neko nesaka par to, vai cilvēki patiesībā saprot AI sistēmas, ko viņi lieto.
Šeit Twin Ladder ietvars piedāvā kaut ko tādu, ko regulējumam pašlaik trūkst. Mērot novērojamus kompetences indikatorus — vai šī persona spēj identificēt, kad AI rezultātam nepieciešama verifikācija? Vai viņa spēj formulēt viņas darba plūsmā izmantoto AI sistēmu ierobežojumus? Vai viņa spēj pieņemt informētus lēmumus par to, kad paļauties uz AI un kad to ignorēt? — novērtējums pārvietojas no "vai organizācija mēģināja?" uz "vai tas darbojās?"
Uz rezultātiem balstīts atbilstības modelis atrisina paradoksu. Nav nozīmes, vai organizācija izmantoja AI, PowerPoint vai individuālu mentoringu pratības veidošanai. Svarīgi ir tas, vai cilvēki spēj demonstrēt kompetenci. Metode kļūst nebūtiska. Rezultāts kļūst par visu.
10. Plašākas likmes
Pratības paradokss 4. pantā nav izolēts redakcijas jautājums. Tas ir simptoms dziļākam izaicinājumam, kas definēs nākamo tehnoloģiju regulēšanas desmitgadi: kā regulēt tehnoloģiju, kas pati ir visefektīvākais rīks atbilstībai regulējumam?
Šis izaicinājums atkārtosies. Kad AI akta augsta riska sistēmu noteikumi pilnībā stāsies spēkā 2027.–2028. gadā, organizācijām būs nepieciešami AI vadīti rīki AI sistēmu veiktspējas uzraudzīšanai, aizspriedumu noteikšanai un atbilstības novērtējumu uzturēšanai. Uzraudzības rīki paši būs AI sistēmas, kas pakļautas akta prasībām. Tā pati rekursīvā struktūra parādīsies atkal.
ES ir logs — starp šo brīdi un 2026. gada augustu, kad tirgus uzraudzības iestādes sāks izpildi — lai to risinātu. Komisijas deleģētie akti, AI biroja vadlīnijas un CEN/CENELEC harmonizētie standarti katrs varētu nodrošināt ceļu caur paradoksu. Bet tikai tad, ja autori atzīst, ka paradokss pastāv.
Es uzrakstīju šo analīzi, jo uzskatu, ka 4. pants ir vissvarīgākais noteikums AI aktā — svarīgāks par aizliegtajām praksēm 5. pantā, svarīgāks par augsta riska sistēmu prasībām III nodaļā. Ja cilvēki nesaprot AI, nekāds tehniskā regulējuma apjoms viņus neaizsargās. Un ja regulējums neļauj cilvēkiem piekļūt visefektīvākajiem rīkiem šīs izpratnes veidošanai, tas uzvar savu mērķi.
Jautājums Eiropas regulatoriem ir vienkāršs: Vai jūs gribat atbilstību, vai kompetenci? Jo šobrīd 4. panta teksts var piespiest organizācijas izvēlēties starp tām.
Un tā ir izvēle, ko regulējumam nekad nevajadzētu prasīt.
Sources
-
Regulation (EU) 2024/1689 -- EU Artificial Intelligence Act, Article 4 (AI Literacy). Full text of the literacy obligation, entered into application 2 February 2025. https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:32024R1689
-
European Commission: AI Literacy -- Questions & Answers (May 2025). Clarified that directing staff to user manuals is "generally not considered sufficient" and that the obligation applies with no size threshold. https://digital-strategy.ec.europa.eu/en/faqs/ai-literacy-questions-answers
-
Recital 20, Regulation (EU) 2024/1689. Legislative intent: AI literacy should equip providers, deployers and affected persons "with the necessary notions to make informed decisions regarding AI systems."
-
European Commission: Living Repository of AI Literacy Practices (2025). Collection of AI literacy initiatives from AI Pact pledgers and public sector bodies. https://digital-strategy.ec.europa.eu/en/library/living-repository-foster-learning-and-exchange-ai-literacy
-
Article 99(4), Regulation (EU) 2024/1689. Penalty framework for general obligation violations: up to EUR 15 million or 3% of worldwide annual turnover.
-
Recital 21, Regulation (EU) 2024/1689. Proportionality in AI literacy measures, recognising differences between providers and deployers.
-
Travers Smith: The EU AI Act's AI Literacy Requirement -- Key Considerations. Analysis of the scope and practical implications of Article 4. https://www.traverssmith.com/knowledge/knowledge-container/the-eu-ai-acts-ai-literacy-requirement-key-considerations/
-
Ropes & Gray: Five Takeaways from the EU Commission's AI Literacy Q&As. Commentary on the Commission's May 2025 guidance. https://www.ropesgray.com/en/insights/viewpoints/102kbn5/five-takeaways-from-the-eu-commissions-ai-literacy-qas
-
Regulation (EU) 2024/1689, Annex III, Areas 3 and 4. High-risk AI system classification for education/vocational training and employment/workforce management. https://artificialintelligenceact.eu/annex/3/
-
Regulation (EU) 2024/1689, Article 5(1)(f). Prohibition of emotion recognition AI systems in education and workplace contexts. https://artificialintelligenceact.eu/article/5/
-
Regulation (EU) 2024/1689, Article 6(3). Derogation conditions for Annex III systems, including the critical override that profiling of natural persons always remains high-risk. https://artificialintelligenceact.eu/article/6/
-
Regulation (EU) 2024/1689, Article 26. Obligations for deployers of high-risk AI systems: human oversight, data quality, monitoring, logging, notification, and fundamental rights impact assessment. https://artificialintelligenceact.eu/article/26/
-
DLA Piper: Latest Wave of Obligations Under the EU AI Act (August 2025). Overview of enforcement timeline and market surveillance authority activation. https://www.dlapiper.com/en-us/insights/publications/2025/08/latest-wave-of-obligations-under-the-eu-ai-act-take-effect
-
AI Act Service Desk -- Article 4: AI Literacy. Operational guidance from the European AI Office. https://ai-act-service-desk.ec.europa.eu/en/ai-act/article-4
-
CEN/CENELEC: AI Standardisation for the EU AI Act. Status of harmonised standards development, including delays and acceleration measures. https://www.cencenelec.eu/news-events/news/2025/brief-news/2025-10-23-ai-standardization/
-
Twin Ladder Assessment Maturity Model v1.0. Six-pillar rubric for AI literacy and competence assessment, CC BY-SA 4.0. https://twinladder.ai/en/research/assessment-maturity-model
-
"Comfort Over Code: A Workflow-Based Framework for AI Literacy in Professional Practice" -- TwinLadder Research, March 2026. https://twinladder.ai/en/research/twin-ladder-methodology
-
Digital Omnibus Proposal (November 2025). Pushed high-risk system application dates to December 2027 (Annex III) and August 2028 (Annex I), partly due to standards delays.
-
Future of Life Institute: Article 4 Analysis and Commentary. Independent analysis of the AI literacy obligation. https://artificialintelligenceact.eu/article/4/

