Gheorghe-Adrian Cătană (AUR) pledează pentru reluarea dezbaterilor privind Strategia națională de implementare a Inteligenței Artificiale în educație

10 min read

Proiectul Strategiei naționale de implementare a Inteligenței Artificiale în educația din România a fost prezentat spre consultare la sfârșitul lunii septembrie. În urma analizării documentului, Alianța Părinților a formulat o serie de critici pe care le-a transmis Ministerului Cercetării, Inovării și Digitalizării. Senatorul AUR Gheorghe-Adrian Cătană a luat act de argumentele aduse de această asociație și a cerut ministerului în cauză să transmită un punct de vedere. El a precizat că posibilul conflict de interese din cadrul Consiliului Științific și de Etică în Inteligență Artificială este cel mai puternic motiv pentru reluarea dezbaterilor pe marginea strategiei.

Alianța Părinților a adus în fața opiniei publice problemele ridicate de textul și maniera de adoptare a Strategiei Naționale de Implementare a Inteligenței Artificiale în educația din România. Nu reiau argumentele aduse de organizație pentru corectarea strategiei adoptate. Le atașez în anexa acestei interpelări. Menționez doar că posibilul conflict de interese din cadrul Consiliului Științific și de Etică în Inteligență Artificială este cel mai puternic motiv pentru reluarea dezbaterilor pe marginea strategiei. De asemenea, precizez că dezbatere publică trebuie să ia în considerare și argumentele contrare liniei oficiale a autorităților. Altfel, se pierde caracterul democratic al guvernării din țară.

           Având în vedere argumentele Alianței Părinților împotriva strategiei atașate în anexa interpelării, vă rog respectuos să ne răspundeți la următoarele întrebări:

  1. Când veți răspunde scrisorii adresate de Alianța Părinților pe marginea Strategiei Naționale de Implementare a Inteligenței Artificiale în educația din România?
  2. Considerați că „utilizarea de imagini neutre din punct de vedere al genului pentru IA folosită în educație și cultură” sau „formarea educatorilor care utilizează IA pentru a identifica discriminarea [din unitățile de învățământ]” contravine principiilor libertății de conștiință, autonomiei locale, ale prezervării tradițiilor locale și valorilor comunităților românești și din România?
  3. Sunteți de acord că IA prezintă totodată pericolul unei uniformizări nefirești a proceselor didactice care este incompatibilă cu individualizarea și personalizarea învățării și stabilirii obiectivelor vocaționale în măsura în care va fi folosită tot mai pregnant în activitatea de „identificare a punctelor slabe din educație” sau în „monitorizarea abilităților și a progresului elevului și personalizarea procesului de predare/învățare și generarea de predicții și recomandări vocaționale”?
  4. Sunteți de acord că prin strategie se propune suplinirea factorului uman în educație de către tehnologia IA, sub justificarea falsă a eficientizării procesului de învățare și prin ideea contradictorie de „personalizare” a predării și învățării?
  5. Considerați că există un conflict de interese în cazul următorilor membrii ai Consiliului Științific și de Etică în Inteligență Artificială: dna Maria Axente, dl Traian Rebedea, dna Doina Precup și dna Anca Goron?

           Vă rugăm să ne transmiteți în scris răspunsurile la întrebările de mai sus, precizând măcar un argument al poziției dumneavoastră pentru a doua, a treia, a patra și a cincea întrebare.  

Anexă – argumentele aduse de Alianța Părinților

Având în vedere documentul programatic „Cadrul strategic național în domeniul inteligenței artificiale” (CSN-IA), realizat în cadrul proiectului „Cadru strategic pentru adoptarea și utilizarea de tehnologii inovative în administrația publică 2021 – 2027 – soluții pentru eficientizarea activității”, cod SIPOCA 704, implementat de Autoritatea pentru Digitalizarea României (ADR) în parteneriat cu Universitatea Tehnică din Cluj-Napoca, fundament pe care se va articula Strategia Națională a României în domeniul IA, vă transmitem următoarele:

1. Conform documentului invocat (p. 34), este recomandat ca IA în domeniul educației să fie încadrată în grupa de risc ridicat. Același document, la aceeași pagină, explică faptul că:

 „Recomandările de conținut de către tehnologiile IA ridică riscuri legate de: protecția datelor, diversitate culturală, rezultate discriminatorii bazate pe date părtinitoare, reducerea diversității opiniilor. Tehnologiile IA devin un factor de inovare în redacțiile de știri prin interpretarea și filtrarea datelor sau chiar generare de știri (de exemplu, prognozele meteo, rezultate sportive) și sunt omniprezente în platformele de conținut audiovizual (contribuie la producția, distribuția, localizarea și filtrarea mass-media audiovizuale). Este menționată lipsa unui cadrul juridic în materie de generare de conținut fabricat (de exemplu, deepfake). Comunicarea subliniază că educația, cultura și audiovizualul sunt domenii sensibile în contextul utilizării IA, deoarece pot afecta drepturi fundamentale.

2. Documentul conține și „recomandările Comisiei Europene” în ce privește utilizarea IA în educație. Din păcate, aceste recomandări conțin, pe lângă câteva aspecte valide, și sofisme ideologice prin care Comisia crede că are dreptul să ne modeleze etosul sub scuza frauduloasă a „corectării stereotipurilor de gen” prin „învățare automată” și prin „utilizarea de imagini neutre din punct de vedere al genului pentru IA folosită în educație și cultură” sau „formarea educatorilor care utilizează IA pentru a identifica discriminarea”. 

Aceste recomandări ale Comisiei Europene contravin principiilor libertății de conștiință, autonomiei locale, ale prezervării tradițiilor locale și valorilor comunităților, precum și principiului subsidiarității. De asemenea, ele promovează o ideologie care pornește în mod fals de la conceptul proclamării egalității legale împotriva unor pretinse inegalități naturale, pentru a sfârși prin:

– instaurarea altor inegalități cu ajutorul cărora să creeze situații defavorizante legal și cultural împotriva majorității heterosexuale prin promovarea instituțională a unor inepții para-științifice și patologice patente precum „neutralitatea de gen”

– eliminarea realei diversități prin fraude semantice precum conceptul de „discriminare”, care înseamnă atât „activitatea de deosebire/discernere”, cât și „tratament nedrept”, putând fi manipulat de așa natură încât reala deosebire naturală, firească să ajungă a fi tratată ca o formă de ostracizare

– identificarea calităților și caracteristicilor comportamentale firești, naturale, drept „stereotipii de gen”, care ar pune în pericol libertățile și drepturile individuale.

În fapt, tocmai aceste falsuri ideologice identificate mai sus sunt cele care aduc gravă atingere conviețuirii sociale, perturbând grav percepția instituțională și normativitatea comportamentală a persoanelor și comunităților. 

Dacă ele ajung să fie convertite și utilizate drept structuri de algoritmizare cibernetică, care să organizeze preferințele și deciziile bazate pe tehnologia IA, vor crea grave distorsiuni comportamentale, organizaționale, normative și de evaluare la nivelul instituțiilor de învățământ și la nivelul administrației publice.

Nu în ultimul rând, aceste criterii recomandate de Comisia Europeană, în acest caz precum și în multe altele, fac parte din agenda extremistă a unei ideologii cu intenții totalitare care vizează răsturnarea valorilor societății umane prin inginerii sociale operate împotriva dezideratelor și libertăților naturale ale comunităților, deci prin impunerea unui control comportamental aberant și care atentează la libertatea de conștiință. 

Pericolul totalitarismului promovat azi în educație prin numeroase pârghii instituționale care sunt direcționate de aceleași principii și interese precum cele arătate mai sus trebuie evitat cu orice preț. 

Nu în ultimul rând, promovarea în învățământ a unor fraude conceptuale și ideologice, precum cele arătate mai sus, contravin legilor educației, care interzic explicit propaganda ideologică în școală. 

3. Cu atât mai periculoasă poate să devină tehnologia IA în situația în care ea va fi ținta unor atacuri cibernetice care îi vor perturba funcțiile și îi vor altera algoritmii de evaluare ajungând să determine decizii negative în ceea ce privește administrarea măsurilor de structurare a învățământului, blocaje operaționale care vor leza activitățile de învățământ, scurgeri de date personale care vor afecta confidențialitatea, calitatea și integritatea procesului de învățământ.

4. IA prezintă totodată pericolul unei uniformizări nefirești a proceselor didactice care este incompatibilă cu individualizarea și personalizarea învățării și stabilirii obiectivelor vocaționale în măsura în care va fi folosită tot mai pregnant în activitatea de „identificare a punctelor slabe din educație” (p. 36) sau în „monitorizarea abilităților și a progresului elevului și personalizarea procesului de predare/învățare și generarea de predicții și recomandări vocaționale” (p. 38). 

Practic, se propune, disimulat, o progresivă suplinire a factorului uman în educație de către tehnologia IA, sub justificarea falsă a eficientizării procesului de învățare și prin ideea contradictorie de „personalizare” a predării și învățării, când ceea ce se propune, de fapt, este transformarea experienței învățării – care este umană prin excelențăși așa trebuie să rămână – într-o activitate mecanică, automată.

Această poziție este nu doar iresponsabilă, ci și periculoasă din punct de vedere societal, căci transmisiunea valorilor și experiențelor de viață de la o generație la alta, precum și formarea deprinderilor de lectură și învățare prin efort intelectual personal face parte din tezaurul comportamental definitoriu pentru principiile care organizează orice societate umană din toate timpurile în formarea inteligenței și maturizării cognitive. 

Practic, prin IA se creează premisele unei automatizări necritice a structurilor de organizare instituțională a învățământului prin simple decizii imediate ale factorilor politici, care vor fi nemijlocit disponibile să fie implementate în decalaj semnificativ față de orice intervenții de corectare în cazul unor erori sau direcționări greșite ale educației.

5. Este paradoxal și absurd ca, în vreme ce constatăm că elevii au tot mai multe probleme de relaționare și tot mai grave deficiențe de comunicare cu semenii, să le restricționăm în plus comunicarea interumană prin introducerea IA în învățământul preuniversitar. IA nu va putea oferi niciodată ceea ce oferă un profesor: căldura umană, sprijin emoțional, modele de urmat.

6. Cadrul instituțional creat pentru promovarea IA în educație este grav afectat de conflicte de interese, chiar la nivelul Consiliului Științific și de Etică în Inteligență Artificială. La adresa https://www.mcid.gov.ro/sistemul-de-cercetare/organisme-consultative/consiliul-stiintific-si-de-etica-in-inteligenta-artificiala/ găsim că membru al acestui Consiliu este dna Maria Axente, cercetător asociat la Universitatea Cambridge care: „…oferă consultanță organizațiilor din sectorul privat și public pentru a-și transforma activitatea prin utilizarea responsabilă și etică a IA. A participat activ la dezvoltarea diverselor inițiative de politică publică în colaborare cu Guvernul Marii Britanii, Royal Society, Universitatea Cambridge și Forumul Economic Mondial.” 

De asemenea, îl găsim ca membru pe dl Traian Rebedea care este în prezent și Cercetător Senior al companiei NVIDIA. De asemenea, o găsim pe dna Doina Precup care e Director de Cercetare la Google DeepMind. O mai găsim pe dna Anca Goron, fondatoare a AVA Research. De asemenea, pe dna Elena Burceanu, membră a Echipei de Cercetare Teoretică în AI din compania Bitdefender.

In aceste condiții avem un legitim motiv de îngrijorare cu privire la integritatea structurilor cibernetice de IA în raport cu interesele particulare ale firmelor la care sunt asociate persoanele menționate mai sus. 

Putem presupune că sistemul IA ce va fi implementat în educația din România va vehicula și operațiuni dedicate promovării sau favorizării unor interese partizane ale acestor companii, ceea ce ne îndreptățește să solicităm Agenției Naționale de Integritate să cerceteze pentru a constata eventualele stări de incompatibilitate sau conflicte de interese.

Cu atât mai mult cu cât, așa cum a sesizat deja dl profesor Mircea Platon: „Maria Axente, o persoană care lucrează pentru PricewaterhouseCoopers (PwC),  unde pare a se ocupa cu promovarea/vânzarea IA în rândul clienților acestei firme de consultanță și audit („managing the company’s efforts in deploying responsible AI and data across the UK business, its operations and clients”). Conform paginii ei de prezentare de la Cambridge, unde e cercetător asociat, Axente se ocupă și la UNICEF și la World Economic Forum cu programele de IA, la UNICEF având ca țintă copiii. Pe ChartwellSpeakers aflăm că poate fi închiriată, ca vorbitor.

Nu mi-e foarte clar dacă Axente este om de știință sau influencer, nu am găsit un CV al ei unde să ni se spună ce pregătire are, nu am găsit vreo carte publicată. Știu doar că scrie și vorbește despre IA incluziv și echitabil, că lucrează la o firmă, PwC, zguduită de scandaluri de corupție și de procese intentate pentru agresivitatea cu care aplică agenda woke.” (https://www.qmagazine.ro/romania-robotizata-sau-descolarizarea-digitala/)

Faptul că persoanele indicate mai sus activează în favoarea unor companii cu interese în promovarea tehnologiei IA și, în același timp, dețin funcții de răspundere într-o instituție publică ce se ocupă de promovarea aceleiași tehnologii, ba chiar în Consiliul de Etică al acestui complex tehnologic, necesită clarificări publice urgente. 

Pentru toate motivele expuse mai sus solicităm ca strategia națională de implementare a IA în educația din România să fie suspendată și supusă unor dezbateri reale, de substanță, în spațiul public, cu participarea masivă a celor interesați, care să-și poată argumenta punctele de vedere.

Solicităm dezbatere publică cu participare fizică și online, anunțată cu cel putin 10 zile înainte, într-un spațiu care să permită participarea tuturor celor interesați și cu un timp alocat care să permită participanților expunerea tuturor argumentelor.

Considerăm că graba cu care este promovată și pusă în aplicare această dezvoltare tehnologică – ce va avea consecințe catastrofale asupra societății românești în general și asupra învățământului în special, asupra libertăților și drepturilor omului – este fie iresponsabilă, fie animată de intenții suspecte. 

Cerința de transparență decizională pe care chiar „Cadrul strategic național în domeniul inteligenței artificiale” îl invocă drept o măsură de control la adresa riscurilor de grad înalt pe care le prezintă această tehnologie, trebuie cu atât mai mult pusă în practică în demersurile instituționale din acest domeniu. 

Nu considerăm de bun augur faptul că măsurile preconizate și planificate de către ministerele de resort au trecut cu atât de mare ușurință de scrutinul instituțional, absolut necesar după analize minuțioase și responsabile.

Solicităm numar de înregistrare și răspuns pe adresa:[email protected]

Prof. Horațiu Trif

Prof. Popa Olimpia- Dir. Departament Educație-Sănătate

Președinte: Cristian Filip

Copyright © acțiunea.ro (2020-2023) | Newsphere by AF themes.