ZIŅOJUMS par visaptverošu Eiropas rūpniecības politiku attiecībā uz mākslīgo intelektu un robotiku
30.1.2019 - (2018/2088(INI))
Rūpniecības, pētniecības un enerģētikas komiteja
Referente: Ashley Fox
Atzinumu sagatavotāji(*):
Dita Charanzová, Iekšējā tirgus un patērētāju aizsardzības komiteja
Mady Delvaux, Juridiskā komiteja
Michał Boni, Pilsoņu brīvību, tieslietu un iekšlietu komiteja
(*) Iesaistītās komitejas — Reglamenta 54. pants
- EIROPAS PARLAMENTA REZOLŪCIJAS PRIEKŠLIKUMS
- Iekšējā tirgus un patērētāju aizsardzības komitejAS ATZINUMS
- JURIDISKĀS KOMITEJAS ATZINUMS
- Pilsoņu brīvību, tieslietu un iekšlietu komitejAS ATZINUMS
- Vides, sabiedrības veselības un pārtikas nekaitīguma komitejAS ATZINUMS
- INFORMĀCIJA PAR PIEŅEMŠANUATBILDĪGAJĀ KOMITEJĀ
- ATBILDĪGĀS KOMITEJASGALĪGAIS BALSOJUMS PĒC SARAKSTA
EIROPAS PARLAMENTA REZOLŪCIJAS PRIEKŠLIKUMS
par visaptverošu Eiropas rūpniecības politiku attiecībā uz mākslīgo intelektu un robotiku
Eiropas Parlaments,
– ņemot vērā 2017. gada 16. februāra rezolūciju ar ieteikumiem Komisijai par Civiltiesību noteikumiem par robotiku[1],
– ņemot vērā 2017. gada 1. jūnija rezolūciju par Eiropas rūpniecības digitalizāciju[2],
– ņemot vērā 2018. gada 12. septembra rezolūciju par autonomu ieroču sistēmām[3],
– ņemot vērā 2018. gada 11. septembra rezolūciju par valodu līdztiesību digitālajā laikmetā[4],
– ņemot vērā Komisijas 2018. gada 6. jūnija priekšlikumu, ar ko laikposmam no 2021. līdz 2027. gadam izveido Digitālās Eiropas programmu (COM(2018)0434),
– ņemot vērā Padomes 2018. gada 28. septembra Regulu (ES) 2018/1488 par Eiropas augstas veiktspējas datošanas kopuzņēmuma izveidi[5],
– ņemot vērā Reglamenta 52. pantu,
– ņemot vērā Rūpniecības, pētniecības un enerģētikas komitejas ziņojumu, kā arī Iekšējā tirgus un patērētāju aizsardzības komitejas, Juridiskās komitejas, Pilsoņu brīvību, tieslietu un iekšlietu komitejas un Vides, sabiedrības veselības un pārtikas nekaitīguma komitejas atzinumus (A8-0019/2019),
A. tā kā pārredzams un ētiski pamatots mākslīgais intelekts (MI) un robotika potenciāli var bagātināt mūsu dzīvi un vairot mūsu spējas gan individuālā, gan sabiedrības līmenī;
B. tā kā MI attīstība notiek strauji un MI jau vairākus gadus ir bijis daļa no mūsu ikdienas dzīves; tā kā MI un robotika veicina inovāciju, kas noved pie jauniem uzņēmējdarbības modeļiem un kam ir nozīmīga loma mūsu sabiedrības pārveidošanā un mūsu ekonomikas digitalizēšanā daudzās nozarēs, piemēram, rūpniecībā, veselības aprūpē, būvniecībā un transportā;
C. tā kā robotikas arvien lielākā integrācija cilvēku sistēmās prasa stingras politiskas norādes par to, kā maksimizēt ieguvumus un minimizēt sabiedrības riskus un nodrošināt drošu un taisnīgu mākslīgā intelekta attīstību;
D. tā kā mākslīgais intelekts ir viena no 21. gadsimta stratēģiskajām tehnoloģijām gan visā pasaulē, gan Eiropā, radot pozitīvas pārmaiņas Eiropas ekonomikai un paverot iespēju inovācijai, produktivitātei, konkurētspējai un labklājībai;
E. tā kā aptuveni ceturto daļu visu rūpniecisko robotu un pusi no visiem profesionālo pakalpojumu robotiem pasaulē ražo Eiropas uzņēmumi un tā kā tāpēc ES jau ir ievērojamas iestrādes, uz kurām tai vajadzētu balstīt savu Eiropas rūpniecības politiku;
F. tā kā MI un robotika var pārveidot daudzas nozares un nodrošināt lielāku ražošanas efektivitāti, kā arī padarīt Eiropas rūpniecību un MVU konkurētspējīgākus pasaules līmenī; tā kā lielu datu kopu un testēšanas un eksperimentālo iekārtu pieejamība ir ļoti nozīmīga mākslīgā intelekta attīstībai;
G. tā kā kopēja pieeja veicinās MI tehnoloģiju attīstību sabiedrības labā, vienlaikus risinot arī šo tehnoloģiju radītās problēmas, lai veicinātu inovāciju, uzlabotu MI ražojumu un pakalpojumu kvalitāti, uzlabotu patērētāju pieredzi un uzticēšanos MI tehnoloģijām un robotikai un izvairītos no iekšējā tirgus sadrumstalotības;
H. tā kā Savienībā vadošā līmenī jāsaglabā datošanas veiktspēja, kam jānodrošina iespējas ES piegādes nozarei un jāpalielina tās efektivitāte, pārorientējot tehnoloģiju attīstību uz ražojumiem un pakalpojumiem, kuri orientēti uz pieprasījumu un kuru attīstību veicina to lietotnes, un novedod pie tā, ka tehnoloģijas tiktu izmantotas lielā mērogā un parādītos uz mākslīgo intelektu balstītas lietotnes;
I. tā kā ES ir steidzami vajadzīga koordinēta pieeja Eiropas līmenī, lai spētu konkurēt ar ļoti lielajām trešo valstu, jo īpaši ASV un Ķīnas, investīcijām;
J. tā kā 2018. gada 25. aprīlī Komisija apņēmās piedāvāt Eiropas pieeju mākslīgajam intelektam[6], izstrādājot MI vadlīniju projektu sadarbībā ar ieinteresētajām personām MI aliansē ― mākslīgā intelekta ekspertu grupā, lai veicinātu MI lietotņu izstrādi un uzņēmumu izveidi Eiropā;
K. tā kā būtu jāpārskata un vajadzības gadījumā jāmaina spēkā esošie noteikumi un procedūras, lai integrētu mākslīgo intelektu un robotiku;
L. tā kā Eiropas MI noteikumi jāizstrādā, pilnībā ievērojot tiesības, kas noteiktas Pamattiesību hartā, un jo īpaši datu aizsardzības, privātuma un drošības principus;
M. tā kā mākslīgā intelekta attīstību var un vajadzētu virzīt tā, lai saglabātu indivīda cieņu, autonomiju un pašnoteikšanos;
N. tā kā 2017. gada 16. februāra rezolūcijā ar ieteikumiem Komisijai par Civiltiesību noteikumiem attiecībā uz robotiku Parlaments aicināja Komisiju ierosināt saskaņotu tiesisko regulējumu robotikas, tostarp autonomu sistēmu un viedu autonomu robotu, izstrādei;
O. tā kā MI un robotikas attīstībai ir jāaptver visa sabiedrība; tā kā tomēr 2017. gadā lauku teritorijās vēl lielā mērā nevarēja izmantot MI priekšrocības, jo 8 % mājokļu neietilpa nevienā fiksētā tīklā un 53 % nebija iespēju izmantot “nākamās paaudzes piekļuves” tehnoloģijas (VDSL, Docsis 3.0 kabeli vai FTTP);
P. tā kā tādu MI pakalpojumu un ražojumu izstrādei ir nepieciešama savienojamība, datu brīva aprite un datu pieejamība ES; tā kā progresīvo datizraces metožu izmantošana ražojumos un pakalpojumos var palīdzēt uzlabot lēmumu pieņemšanas kvalitāti un līdz ar to arī patērētāju izvēli, kā arī uzlabot uzņēmējdarbības rādītājus;
Q. tā kā tehnoloģiju attīstība viedajos ražojumos un pakalpojumos var veicināt zināšanu ekonomiku, kuras pamatā ir pieejamās informācijas kvantitāte, kvalitāte un piekļūstamība, un līdz ar to novest pie labākas pielāgošanās patērētāju vajadzībām;
R. tā kā kiberdrošība ir būtiski svarīga, lai nodrošinātu, ka dati netiek ļaunprātīgi bojāti vai neatbilstīgi izmantoti MI darbībai tādā veidā, kas kaitē iedzīvotājiem vai uzņēmumiem un tādējādi grauj nozari un patērētāju uzticēšanos MI; tā kā norises MI jomā palielina darbību un lēmumu paļāvību uz šīm sistēmām, kas savukārt rada nepieciešamību pēc augstiem standartiem kibernoturības jomā ES, lai aizsargātu pret kiberdrošības pārkāpumiem un kļūmēm;
S. tā kā tendencei uz automatizāciju ir nepieciešams, lai tie, kas iesaistīti mākslīgā intelekta lietotņu izstrādē un tirdzniecībā, jau sākotnēji balstītos uz drošības un ētikas apsvērumiem, tādējādi atzīstot, ka viņiem ir jābūt gataviem uzņemties juridisku atbildību par ražotās tehnoloģijas kvalitāti;
T. tā kā uzticamas ekosistēmas izveide MI tehnoloģiju attīstībai jābalsta uz datu politikas arhitektūru; tā kā tas nozīmē netraucētu un vienkāršotu datu vākšanas un pārvaldības programmu izstrādi izglītības izpētes nolūkos, lai nodrošinātu MI attīstību daudzās jomās: medicīnas, finanšu, bioloģijas, enerģētikas, rūpniecības, ķīmijas jomā vai publiskajā sektorā; tā kā uz datiem balstīta MI ekosistēma varētu ietvert visu Eiropu aptverošas iniciatīvas, kas izmantotu atklātus standartus un balstītos uz sertifikātu savstarpēju atzīšanu un pārredzamiem sadarbspējas noteikumiem;
U. tā kā MI izmantošana pati par sevi negarantē patiesību vai godīgumu, jo neobjektivitāte var parādīties datu vākšanas procesā un algoritmu rakstīšanā, un tās var radīt arī sabiedrības neobjektivitāte; tā kā datu kvalitātei kopā ar algoritmu izstrādi un pastāvīgiem atkārtotas novērtēšanas procesiem būtu jānovērš šīs novirzes;
V. tā kā MI un robotika būtu jāattīsta un jāizmanto uz cilvēkiem vērstā pieejā, lai palīdzētu cilvēkiem darbā un mājās; tā kā MI var izmantot arī, lai izvairītos no tā, ka cilvēkiem jādara bīstami darbi;
W. tā kā automatizētas un algoritmiskas lēmumu pieņemšanas turpmāka attīstība un plašāka izmantošana neapšaubāmi ietekmē izvēli, ko privātpersona (piemēram, uzņēmējs vai interneta lietotājs) un administratīva, tiesu vai cita publiska iestāde veic, lai nonāktu pie galīgā lēmuma kā patērētājs, uzņēmums vai varasiestāde; tā kā automatizētas un algoritmiskas lēmumu pieņemšanas procesā jāintegrē aizsardzības pasākumi un iespēja cilvēkam kontrolēt un verificēt;
X. tā kā mašīnmācīšanās arī izraisa problēmas saistībā ar nediskriminācijas, pienācīgas procedūras, pārredzamības un saprotamības nodrošināšanu lēmumu pieņemšanas procesos;
Y. tā kā MI ir nozīmīgs instruments, kas risina globālas sabiedriskas problēmas, un tā kā tāpēc dalībvalstīm, izmantojot savu sabiedrisko politiku, būtu jāveicina investīcijas, jāpiešķir līdzekļi pētniecībai un izstrādei un jānovērš šķēršļi MI attīstībai un ieviešanai;
Z. tā kā komerciālās mākslīgā intelekta platformas ir pārgājušas no testēšanas uz reāliem lietojumiem veselības, vides, enerģētikas un transporta jomā; tā kā mašīnmācīšanās metodes ir visu galveno tīmekļa platformu un lielo datu lietotņu pamatā;
AA. tā kā Eiropas pētnieki un uzņēmumi ir iesaistīti daudz un dažādās blokķēdes tēmās: piegādes ķēde, valdības pakalpojumi, finanses, lietu internets (IoT), veselības aprūpe, plašsaziņas līdzekļi, viedās pilsētas, enerģētika un transports; tā kā Eiropa ir spēcīgs dalībnieks svarīgās ar blokķēdi saistītās jomās, piemēram, MI jomā; tā kā blokķēdei var būt liela nozīme Eiropas inovāciju veicināšanā;
AB. tā kā kiberdrošības tehnoloģijas, piemēram, digitālā identitāte, kriptogrāfija vai ielaušanās noteikšana, un to pielietošana tādās jomās kā finanses, rūpniecība 4.0, enerģētika, transports, veselības aprūpe vai e-pārvalde ir būtiska, lai iedzīvotājiem, valsts pārvaldei un uzņēmumiem vienlīdz nodrošinātu tiešsaistes darbības un darījumu drošību un uzticamību;
AC. tā kā tekstizrace un datizrace ir pamats MI un mašīnmācīšanās lietotnēm, un tās ir būtiskas MVU un jaunuzņēmumiem, jo tās ļauj piekļūt lieliem datu apjomiem, lai apmācītu MI algoritmus;
AD. tā kā MI varētu izrādīties ļoti energoietilpīgs; tā kā šajā sakarā ir svarīgi MI izmantošanu attīstīt atbilstoši ES pašreizējiem energoefektivitātes un aprites ekonomikas mērķrādītājiem;
AE. tā kā MI būtu pilnībā jādarbojas visās Eiropas valodās, lai visiem eiropiešiem nodrošinātu vienlīdzīgas iespējas izmantot modernās MI tendences daudzvalodīgā Eiropas informācijas sabiedrībā;
AF. tā kā rūpniecības un pakalpojumu sfērā, kas saistīta ar augstajām tehnoloģijām, MI ir izšķiroša nozīme, lai padarītu Eiropu par “jaunuzņēmumu kontinentu”, izmantojot jaunākās tehnoloģijas izaugsmes radīšanai Eiropā, jo īpaši tādās jomās kā veselības aprūpes tehnoloģijas, veselības pakalpojumi un programmas, zāļu atklāšana, robotika un robotizētas operācijas, hronisko slimību ārstēšana un medicīniskā attēlveidošana un ieraksti, kā arī ilgtspējīgas vides nodrošināšana un nekaitīgas pārtikas ražošana; tā kā Eiropa pašlaik atpaliek no Ziemeļamerikas un Āzijas mākslīgā intelekta pētniecības un patentu jomā;
AG. tā kā MI tehnoloģiju attīstība var palīdzēt uzlabot dzīvi cilvēkiem ar hroniskām slimībām un invaliditāti un risināt tādas sociālās problēmas kā sabiedrības novecošana, veselības aprūpes sniegšanā uzlabojot tehnoloģiju precizitāti un efektivitāti;
AH. tā kā ir plašs klāsts ar iespējamiem MI un robotikas lietojumiem medicīniskajā aprūpē, piemēram, medicīnisko ierakstu un datu pārvaldīšana, rutīnas pienākumu veikšana (testu un rentgena un datortomogrāfijas uzņēmumu analīze un datu ievadīšana), ārstēšanas plāna sagatavošana, digitālas konsultācijas (piemēram, medicīniskās konsultācijas, kas pamatojas uz personas medicīnisko vēsturi un vispārīgām medicīnas zināšanām), virtuālās medmāsas, medikamentu pārvaldība, medikamentu radīšana, precīzijas medicīna (jo ģenētikā un genomikā no DNS informācijas tiek meklētas mutācijas un saistība ar slimību), veselības uzraudzība, veselības aprūpes sistēmas analīze utt.;
AI. tā kā pieejamība nenozīmē tos pašus pakalpojumus un ierīces visiem; tā kā MI un robotikas pieejamība ir balstīta uz iekļaujošu plānošanu un projektēšanu; tā kā lietotāja vajadzībām, vēlmēm un pieredzei jābūt projekta sākumpunktā;
AJ. tā kā pastāv nopietnas ētiskas, psiholoģiskas un juridiskas bažas par robotu autonomiju, to acīmredzamo cilvēciskās empātijas trūkumu un ietekmi uz ārstu un pacientu attiecībām, kas vēl nav pienācīgi pētītas ES līmenī, jo īpaši attiecībā uz pacientu persondatu aizsardzību, atbildību un jaunajām ekonomiskajām un darba attiecībām, kas veidosies vēlāk; tā kā “autonomiju” kā tādu var pilnībā attiecināt tikai uz cilvēkiem; tā kā mākslīgajam intelektam ir vajadzīgs stingrs juridiskais un ētiskais satvars;
AK. tā kā mākslīgā intelekta ieviešana jo īpaši veselības jomā vienmēr jābalsta uz “cilvēks darbina mašīnu” atbildības principa;
1. Sabiedrība, kuru atbalsta mākslīgais intelekts un robotika
1.1. Darbaspēks mākslīgā intelekta un robotikas laikmetā
1. uzsver, ka automatizācija kopā ar mākslīgo intelektu palielinās produktivitāti un tātad arī izlaidi; norāda, ka tāpat kā iepriekšējās tehnoloģiskajās revolūcijās dažas darbvietas tiks aizstātas, bet tiks radītas arī jaunas darbvietas, kas mainīs dzīvi un darba veikšanu; uzsver, ka robotikas un MI pastiprinātai izmantošanai būtu arī jāsamazina kaitīgu un bīstamu apstākļu ietekme uz cilvēkiem, kā arī jāpalīdz radīt vairāk kvalitatīvu un pienācīgu darbvietu un jāuzlabo produktivitāte;
2. mudina dalībvalstis koncentrēties uz darbinieku pārkvalificēšanu nozarēs, ko visvairāk skārusi pienākumu automatizācija; uzsver, ka jaunajās izglītības programmās galvenā uzmanība būtu jāpievērš darbinieku prasmju attīstībai, lai viņi varētu izmantot iespējas, ko sniedz jaunās MI radītās darbvietas; mudina izstrādāt digitālās pratības programmas skolās, izstrādāt māceklības un profesionālās apmācības prioritātes, lai palīdzētu darba ņēmējiem pielāgoties tehnoloģiskajām pārmaiņām;
3. iesaka dalībvalstīm kopā ar privātā sektora dalībniekiem apzināt riskus un izstrādāt stratēģijas, lai nodrošinātu atbilstošu pārkvalificēšanas un jaunu prasmju apgūšanas programmu izstrādi; uzsver, ka pašiem uzņēmumiem ir jāinvestē darbaspēka apmācībā un pārkvalificēšanā, lai apmierinātu tā vajadzības;
4. uzsver, ka robotikas attīstība ES būtiski ietekmēs darba attiecības; uzskata, ka šī ietekme būtu jānotur līdzsvarā, lai veicinātu reindustrializāciju un ļautu darba ņēmējiem arī baudīt produktivitātes radītos labumus;
5. norāda, ka pašreizējā rūpnieciskajā sistēmā līdzsvars starp īpašniekiem un darba ņēmējiem ir nestabils; uzskata, ka uzlabojumi attiecībā uz MI ieviešanu rūpniecībā būtu jāveic, plaši apspriežoties ar sociālajiem partneriem, jo potenciālajām izmaiņām attiecībā uz nozarē strādājošo cilvēku skaitu ir nepieciešama proaktīva politika, lai palīdzētu darba ņēmējiem pielāgoties jaunajām prasībām un nodrošinātu peļņas plašu pārdali; norāda, ka tas liek pārdomāt un pārveidot darba tirgus politiku, kā arī sociālā nodrošinājuma un nodokļu sistēmu;
6. mudina dalībvalstis novērst šķēršļus darba uzsākšanai, piemēram, pārmērīgi augstu kvalifikāciju prasības;
7. uzskata, ka digitālā pratība ir viens no svarīgākajiem faktoriem turpmākajai MI attīstībai, un mudina Komisiju un dalībvalstis izstrādāt un īstenot digitālās pratības apmācības un pārkvalificēšanas stratēģijas; norāda, ka digitālā pratība var sekmēt plašu un iekļaujošu līdzdalību datu ekonomikas risinājumos un atvieglot saziņu un sadarbību ar visām ieinteresētajām personām;
8. norāda — tā kā tiks ietekmēti visu vecumu iedzīvotāji, ir jāpielāgo izglītības programmas, tostarp radot jaunas mācīšanās iespējas un izmantojot jaunas mācību tehnoloģijas; uzsver, ka ir pienācīgi jāpievēršas izglītības aspektiem; jo īpaši uzskata, ka digitālās prasmes, tostarp programmēšana, ir jāiekļauj izglītības un apmācību programmās no pirmajiem skolas gadiem līdz pat mūžizglītībai;
1.2. Mākslīgā intelekta ļaunprātīga izmantošana un pamattiesības
9. uzsver, ka ļaunprātīga vai nolaidīga MI izmantošana varētu apdraudēt digitālo drošību un personisko un sabiedrisko drošību, jo to varētu izmantot, lai īstenotu vērienīgus, precīzi mērķētus un ļoti efektīvus uzbrukumus informācijas sabiedrības pakalpojumiem un pieslēgtajām iekārtām, kā arī dezinformācijas kampaņas, un kopumā mazinātu indivīdu tiesības uz pašnoteikšanos; uzsver, ka ļaunprātīga vai nolaidīga MI izmantošana varētu apdraudēt arī demokrātiju un pamattiesības;
10. aicina Komisiju ierosināt sistēmu, kura paredz sodu par manipulācijām ar uztveri, ja personalizēts saturs vai ziņas rada negatīvas izjūtas un izkropļo realitātes uztveri, kas var novest pie negatīvām sekām (piemēram, vēlēšanu rezultātiem vai izkropļotiem uzskatiem sociālos jautājumos, piemēram, par migrāciju);
11. uzsver, ka ir svarīgi atzīt, identificēt un uzraudzīt radikālas pārmaiņas MI izstrādē un ap to; mudina veikt pētījumus par MI, lai koncentrētos arī uz nejauši vai ļaunprātīgi bojāta MI un robotikas konstatēšanu;
12. mudina Komisiju ņemt vērā sociālās problēmas, kas izriet no prakses, kuras pamatā ir iedzīvotāju klasificēšana; uzsver, ka iedzīvotājus nedrīkst diskriminēt, pamatojoties uz viņu kategoriju, un viņiem jābūt tiesībām uz “vēl vienu iespēju”;
13. pauž nopietnas bažas par MI lietotņu, tostarp sejas un balss atpazīšanas, izmantošanu “emocionālās novērošanas” programmās, proti, kad tiek novērots darba ņēmēju un iedzīvotāju garīgais stāvoklis, lai paaugstinātu produktivitāti un saglabātu sociālo stabilitāti, dažkārt kopā ar “sociālo kredītu” sistēmām, kādas, piemēram, jau tiek ieviestas Ķīnā; uzsver, ka šādas programmas būtībā ir pretrunā ar Eiropas vērtībām un normām, kas aizsargā indivīdu tiesības un brīvības;
2. Tehnoloģiju virzība uz mākslīgo intelektu un robotiku
2.1. Pētniecība un izstrāde
14. atgādina, ka Eiropā ir pasaulē vadošā MI pētniecības kopiena, kas veido 32 % no MI pētniecības iestādēm visā pasaulē;
15. atzinīgi vērtē Komisijas priekšlikumu par programmu “Digitālā Eiropa” un budžetu 2,5 miljardu EUR apmērā, kas paredzēts mākslīgā intelekta pētniecībai, kā arī palielināto finansējumu programmā “Apvārsnis 2020”; izprot ES finansējuma lielo nozīmi, jo tas papildina dalībvalstu un nozaru pētniecības budžetus MI jomā, un nepieciešamību sadarboties valstu, privāto un ES pētniecības programmu ietvaros;
16. atbalsta programmas “Digitālā Eiropa” darbības mērķus izveidot un nostiprināt mākslīgā intelekta pamatspējas Savienībā, padarīt tās pieejamas visiem uzņēmumiem un valsts pārvaldes iestādēm, kā arī nostiprināt un apvienot tīklā dalībvalstu mākslīgā intelekta testēšanas un eksperimentālās iekārtas;
17. mudina dalībvalstis attīstīt daudzpusējas partnerības starp nozarēm un pētniecības institūtiem, kā arī kopējus MI izcilības centrus;
18. uzsver, ka MI pētniecībai būtu jāiegulda ne tikai MI tehnoloģijās un inovācijas attīstībā, bet arī ar MI saistītās sociālās, ētiskās un atbildības jomās; uzskata, ka attiecībā uz jebkuru izmantoto MI modeli jau izstrādes posmā būtu jāņem vērā ētiskie apsvērumi;
19. uzsver, ka MI pētniecība un citas ar to saistītas darbības būtu jāveic saskaņā ar piesardzības principu un pamattiesībām, vienlaikus veicinot progresu sabiedrības un vides labā; uzsver, ka ikvienam, kas iesaistīts MI izstrādē, īstenošanā, izplatīšanā un izmantošanā, būtu jāņem vērā un jārespektē cilvēka cieņa un gan fiziskās, gan psiholoģiskās pašnoteikšanās tiesības un labklājība attiecībā uz atsevišķu cilvēku un sabiedrību kopumā, jāparedz iespējamā ietekme uz drošumu un jāveic pienācīgi piesardzības pasākumi, kuri ir samērīgi ar aizsardzības līmeni, tostarp nekavējoties atklājot faktorus, kas varētu apdraudēt sabiedrību vai vidi;
20. uzsver, ka konkurētspējīgai pētniecības videi ir arī būtiska nozīme mākslīgā intelekta attīstīšanā; uzsver, ka ir svarīgi atbalstīt izcilus pētījumus, tostarp fundamentālo zinātni un augsta riska projektus ar lielu atdevi, kā arī atbalstīt Eiropas pētniecības telpu ar pievilcīgiem nosacījumiem finansējumam, mobilitātei un infrastruktūras un tehnoloģiju pieejamībai visā Savienībā, pamatojoties uz principu par atklātību pret trešām valstīm un zinātību, kas ienāk no valstīm ārpus Savienības, ar noteikumu, ka tas neapdraud ES kiberdrošību;
21. uzsver, ka ES pētnieki joprojām pelna ievērojami mazāk nekā viņu kolēģi ASV un Ķīnā, kas ir zināms kā galvenais iemesls, kādēļ viņi pamet Eiropu; aicina Komisiju un dalībvalstis koncentrēties uz talantīgāko cilvēku piesaistīšanu Eiropas uzņēmumiem un aicina dalībvalstis radīt stimulējošus nosacījumus;
22. uzsver, ka Eiropai ir nepieciešama jauna NJT[7] pamatprogramma mākslīgā intelekta jomā, īpašu uzmanību pievēršot cilvēkorientētai pieejai un valodu tehnoloģijām;
23. uzskata, ka mākslīgais intelekts, mašīnmācīšanās un eksponenciāli lēcieni datu pieejamības un mākoņdatošanas jomā stimulē pētniecības iniciatīvas, kuru mērķis ir izprast bioloģiju molekulārā un šūnu līmenī, vadīt medicīniskās aprūpes attīstību un analizēt datu plūsmas, lai noteiktu veselības apdraudējumus, prognozētu slimību uzliesmojumus un konsultētu pacientus; norāda, ka datizraces un datu navigācijas paņēmienus var izmantot, lai noteiktu aprūpes nepilnības, riskus, tendences un modeļus;
24. uzsver, ka tad, ja riski rodas kā nenovēršams un neatņemams MI pētniecības elements, būtu jāizstrādā un jāievēro pamatīgi riska novērtēšanas un pārvaldības protokoli, ņemot vērā, ka kaitējuma risks nedrīkst būt lielāks par to, kas rodas ikdienas dzīvē (t. i., cilvēki nedrīkst būt pakļauti riskiem, kas ir lielāki vai kas papildina tos riskus, kuriem tie ir pakļauti ikdienas dzīvē);
2.2. Investīcijas
25. norāda, ka ir vajadzīgas lielākas investīcijas šajā jomā, lai varētu saglabāt tās konkurētspēju; atzīst — lai gan lielākā daļa investīciju un inovāciju šajā jomā nodrošina privātā sektora riska kapitāls, vajadzētu mudināt dalībvalstis un Komisiju arī turpmāk investēt pētniecībā un nodefinēt attīstības prioritātes; atzinīgi vērtē programmas “InvestEU” priekšlikumu par investīcijām un citām publiskām un privātām partnerībām, kas stimulēs privāto finansējumu; uzskata, ka vajadzētu rosināt koordinēt privātā un publiskā sektora investīcijas, lai nodrošinātu, ka attīstība notiek vienā virzienā;
26. uzsver, ka investīcijas mākslīgajā intelektā, kuras var raksturot ar lielu nenoteiktību, būtu jāpapildina ar ES finansējumu, piemēram, no Eiropas Investīciju bankas (EIB) vai Eiropas Investīciju fonda (EIF), vai “InvestEU”, vai Eiropas Stratēģisko investīciju fonda (ESIF) līdzekļiem, kas var palīdzēt attiecībā uz riska dalīšanu;
27. mudina Komisiju nepieļaut ES finansējuma izmantošanu MI ieroču nozarē; mudina Komisiju nepiešķirt ES finansējumu uzņēmumiem, kas pēta un izstrādā mākslīgo apziņu;
28. iesaka Komisijai nodrošināt, ka pētniecības, kurā izmantots ES finansējums, intelektuālā īpašuma tiesības paliek Eiropas Savienībā un Eiropas universitātēs;
2.3. Inovācija, pieņemšana sabiedrībā un atbildība
29. norāda, ka visiem lielākajiem tehnoloģiskajiem sasniegumiem ir bijis vajadzīgs pārejas periods, kura laikā lielākā daļa sabiedrības iegūst labāku izpratni par šo tehnoloģiju un integrē to savā ikdienas dzīvē;
30. norāda, ka šīs tehnoloģijas nākotne ir atkarīga no pieņemšanas sabiedrībā un ka lielāks uzsvars jāliek uz atbilstošu informēšanu par tās priekšrocībām, lai nodrošinātu labāku izpratni par tehnoloģiju un tās piemērošanu; tāpat norāda — ja sabiedrība netiks informēta par MI tehnoloģiju, šajā nozarē būs mazāk motivācijas inovācijai;
31. uzskata, ka pieņemšana sabiedrībā ir atkarīga no tā, kā sabiedrība tiek informēta par mākslīgā intelekta iespējām, problēmām un attīstību; iesaka dalībvalstīm un Komisijai atvieglot piekļuvi ticamai informācijai par lielākajām sabiedrības bažām saistībā ar MI un robotiku, piemēram, privātumu, drošumu un lēmumu pārredzamību;
32. atzinīgi vērtē regulatīvā režīma izmēģinājumu izmantošanu, lai sadarbībā ar regulatoriem ieviestu inovatīvas jaunas idejas, kas dod iespēju jau pašā sākumā tehnoloģijā iebūvēt aizsardzību, tādējādi sekmējot un veicinot tās ienākšanu tirgū; uzsver nepieciešamību veikt MI pielāgotus regulatīvā režīma izmēģinājumus, lai pārbaudītu MI tehnoloģiju izmantošanas drošumu un efektivitāti reālos apstākļos;
33. norāda — lai panāktu mākslīgā intelekta plašāku pieņemšanu sabiedrībā, jānodrošina izmantojamo sistēmu drošums un drošība;
34. norāda, ka mākslīgais intelekts un valodu tehnoloģijas var nodrošināt būtiskas lietotnes, kas veicinātu Eiropas vienotību tās daudzveidībā, ― automatizētu tulkošanu, sarunu iekārtas un personīgos palīgus, runātās valodas saskarnes robotiem un lietu internetu, viedo analīzi, automātisku propagandas, viltus ziņu un naida runas identificēšanu tiešsaistē;
2.4. Veicinošie apstākļi: savienojamība, datu pieejamība, augstas veiktspējas datošana un mākoņu infrastruktūra
35. uzsver, ka robotikas un MI tehnoloģiju integrēšanai ekonomikā un sabiedrībā ir vajadzīga digitālā infrastruktūra, kas nodrošina visuresošu savienojamību;
36. uzsver, ka savienojamība ir priekšnoteikums, lai Eiropa kļūtu par gigabitu sabiedrības daļu, un MI ir skaidrs piemērs tam, ka pieprasījums pēc augstas kvalitātes, ātras, drošas un visaptverošas savienojamības ir strauji palielinājies; uzskata, ka Savienībai un dalībvalstīm jāturpina atbalstīt pasākumus, kas stimulē investīcijas ļoti lielas ietilpības tīklos ES un šādu tīklu izmantošanā;
37. uzsver, ka strauja un droša 5G tehnoloģiju attīstība ir būtiska, lai ļautu Savienībai pilnībā izmantot MI radītās priekšrocības un aizsargāt pret kiberdrošības apdraudējumiem, dodot iespēju atjaunināt un attīstīt nozares un pakalpojumus, kas ir Eiropas ekonomikas mugurkauls, un atbalstīt jaunu pakalpojumu, ražošanas un tirgu parādīšanos, kas ir būtiski, lai aizsargātu jaunās darbvietas un augstu nodarbinātības līmeni;
38. atgādina, ka ir svarīgi garantēt augstas kvalitātes un jēgpilnu datu pieejamību, lai nodrošinātu īstu konkurētspēju MI nozarē, un aicina publiskās iestādes nodrošināt veidus datu iegūšanai, apmaiņai un pārvaldībai, padarot publiskos datus par sabiedrisku labumu un vienlaikus aizsargājot privātumu un sensitīvus datus;
39. uzsver, cik svarīga ir izmantoto datu kvalitāte mašīnu dziļās mācīšanās procesā; norāda, ka zemas kvalitātes, novecojušu, nepilnīgu vai nepareizu datu izmantošana var izraisīt vājas prognozes un tā rezultātā — diskrimināciju un neobjektivitāti;
40. uzskata, ka jaunais noteikumu kopums, kas reglamentē nepersondatu brīvu apriti Savienībā, ļauj arvien vairāk datu izmantot uz datiem balstītai inovācijai, tādējādi atvieglojot MVU un jaunuzņēmumiem izstrādāt inovatīvus MI pakalpojumus un ieiet jaunos tirgos, vienlaikus ļaujot pilsoņiem un uzņēmumiem gūt labumu no labākiem ražojumiem un pakalpojumiem;
41. norāda uz MI potenciālu paaugstināt efektivitāti, komfortu un labklājību daudzās nozarēs, ja attiecīgās nozares galvenās ieinteresētās personas sadarbojas ar MI izstrādātājiem; turklāt norāda, ka liels tādu datu apjoms, kas nav personiska rakstura dati, pašreiz atrodas minēto ieinteresēto personu īpašumā un, izmantojot partnerības, varētu paaugstināt šo datu efektivitāti; uzskata — lai tas kļūtu par realitāti, priekšnoteikums ir sadarbība starp lietotājiem un MI izstrādātājiem;
42. uzsver sadarbspējas un datu precizitātes nozīmi, lai nodrošinātu augstu uzticamības un drošības standartu līmeni jaunajās tehnoloģijās;
43. uzskata, ka to MI lietotņu panākumiem, kas pielāgotas lietotājiem visā ES, bieži vien ir vajadzīgas plašas zināšanas par vietējiem tirgiem, kā arī piekļuve atbilstīgiem vietējiem datiem un to izmantošana datu kopu apmācībā, sistēmu testēšanā un validēšanā, jo īpaši tajās nozarēs, kas saistītas ar dabiskās valodas apstrādi; prasa dalībvalstīm veicināt augstas kvalitātes, saderīgu un atklātu datu pieejamību publiskajā un privātajā sektorā;
44. uzsver nepieciešamību nodrošināt maksimālu atbilstību ES politikai lielo datu jomā;
45. atzinīgi vērtē pasākumus, kas veicina un atbalsta datu apmaiņu un kopīgošanu pāri robežām;
46. norāda, ka pašreiz datu kopīgošana ir daudz mazāka nekā tā varētu būt un liels datu apjoms netiek pietiekami izmantots;
47. atzīst, ka valda nevēlēšanās dalīties ar datiem, un uzsver, ka ir nepieciešams rīkoties, lai to veicinātu; norāda, ka arī kopīgu standartu trūkumam ir liela ietekme uz iespējām dalīties ar datiem;
48. atzinīgi vērtē tādus regulējumus kā Brīvas datu plūsmas regula un tās ietekmi uz tādām jomām kā MI, lai nodrošinātu efektīvākus un lietderīgākus procesus;
49. atzīst, ka ir jānodrošina lielāki uz tirgu balstīti stimuli, kas veicinātu piekļuvi datiem un to kopīgošanu; norāda uz risku, ko datu atvērtība visupirms rada investēšanai datos;
50. aicina nodrošināt lielāku skaidrību attiecībā uz datu īpašumtiesību noteikumiem un spēkā esošo tiesisko regulējumu; norāda, ka šā regulējuma neskaidrība ir izraisījusi pārāk piesardzīgu nozares reakciju;
51. uzsver Eiropas iniciatīvu lielo nozīmi mākoņdatošanā un augstas veiktspējas datošanā, jo tās vēl vairāk sekmēs dziļās mācīšanās algoritmu izstrādi un lielo datu apstrādi; pauž stingru pārliecību, ka, lai šīs iniciatīvas būtu veiksmīgas un nozīmīgas MI attīstībai, infrastruktūrai jābūt pieejamai gan publiskajām, gan privātajām struktūrām, kas atrodas Savienībā un citur, un tā jāregulē ar vismazāk ierobežojošiem piekļuves kritērijiem;
52. atzinīgi vērtē Eiropas augstas veiktspējas datošanas kopuzņēmuma izveidi; uzsver, ka superdatošana un datu infrastruktūra ir būtiska, lai nodrošinātu konkurētspējīgu inovāciju ekosistēmu MI tehnoloģiju un lietotņu izstrādei;
53. uzsver, ka mākoņdatošanai ir ļoti liela nozīme MI ieviešanā; uzsver, ka piekļuve mākoņpakalpojumiem ļauj privātiem uzņēmumiem, publiskām iestādēm, pētniecības un akadēmiskajiem institūtiem un lietotājiem efektīvā un ekonomiski dzīvotspējīgā veidā izstrādāt un izmantot MI;
3. Rūpniecības politika
54. atgādina — lai gan MI un robotikai jau ir sen iedibinātas rūpnieciskās lietotnes, sasniegumi šajā jomā paplašinās un nodrošina plašas un daudzveidīgas lietotnes visās cilvēka darbībās; uzskata, ka jebkura regulējuma ietvaros jāparedz elastīgums, kas nodrošina inovāciju un jaunu tehnoloģiju un lietošanas brīvu attīstību MI jomā;
55. uzsver, ka MI darbības jomas un lietotņu identificēšanai būtu jāizriet no projektēšanas procesa, kas noteikts atbilstoši vajadzībām un ko vada principi, kuros ņemts vērā paredzamais rezultāts un labākais veids tā sasniegšanai no ekonomiskā un sociālā aspekta; uzskata, ka skaidra rīcībpolitika visos izstrādes posmos nodrošinās īstenošanas atbilstību mērķim un novērsīs riskus un nepilnības;
56. iesaka izmantot un popularizēt publiskā un privātā sektora partnerības, lai izpētītu pamatproblēmu risinājumus, piemēram, datu ekosistēmas izveidi un piekļuves, datu kopīgošanas un plūsmas veicināšanu, vienlaikus aizsargājot cilvēku tiesības uz privātumu;
57. uzsver, ka būtisks izaicinājums MI sistēmu nākotnei ir nepietiekama programmatūras ražošanas tehnoloģiju kvalitāte, un tādēļ uzsver, ka ir ļoti nepieciešams standartizēt MI sistēmu izstrādi un izmantošanu;
58. norāda uz pasaules mērogā veikto darbu un atzīst, ka ir proaktīvi jāsadarbojas ar partneriem, jo īpaši ESAO un G20, lai veidotu šīs nozares tālāko virzību nolūkā nodrošināt ES konkurētspējas saglabāšanos un garantēt vienlīdzīgu piekļuvi valstīm, kā arī pēc iespējas plašāku apmaiņu ar MI izstrādes sniegtajiem ieguvumiem;
59. ar bažām norāda, ka vairāki uzņēmumi, kas ir ārpus Eiropas, un struktūras no trešām valstīm arvien vairāk izmanto prognozēšanas modeļus, kas balstīti uz MI, lai sniegtu pakalpojumus un iegūtu pievienoto vērtību ES tirgos, jo īpaši vietējā līmenī, kā arī lai uzraudzītu un, iespējams, ietekmētu politisko noskaņojumu, tādējādi potenciāli apdraudot ES iedzīvotāju tehnoloģisko suverenitāti;
60. uzsver, ka publiskais atbalsts MI jākoncentrē uz tiem stratēģiskajiem sektoriem, kuros ES nozarei ir vislielākās iespējas uzņemties vadošu lomu pasaules līmenī un kuriem ir pievienotā vērtība vispārējās sabiedrības interesēs;
3.1. Prioritārie sektori
3.1.1. Publiskais sektors
61. uzsver, ka MI un robotika var nodrošināt vairākas priekšrocības publiskajā sektorā, un atzinīgi vērtē lielākas investīcijas pētniecībā un izstrādē, lai nodrošinātu to uzplaukumu;
62. uzsver, ka dalībvalstīm būtu jāinvestē arī izglītībā un MI mācību programmās, lai palīdzētu valsts sektora darbiniekiem pieņemt un izmantot MI un robotiku; norāda, ka būtu jāorganizē arī informatīvas kampaņas iedzīvotājiem, kuri izmantos MI sistēmu un robotikas sniegtos publiskā sektora pakalpojumus, lai mazinātu viņu bažas par kontroles pār persondatiem zaudēšanu un veidotu uzticību;
63. uzsver, ka publiskā sektora informācija ir īpašs datu avots, kas var veicināt strauju progresu un radīt jaunu stratēģiju, kā pieņemt jaunās digitālās tehnoloģijas, jo īpaši mākslīgo intelektu;
64. uzskata, ka uzticama mākslīgā intelekta pieņemšana publiskajā sektorā var spēcīgi atbalstīt valsts pārvaldes reformu lēmumu pieņemšanas procesā un uzlabot sabiedriskos pakalpojumus, kā arī stimulēt plašāku MI pieņemšanu citās nozarēs;
65. atzīst robotikas procesu automatizācijas izmantošanu un ietekmi, kas tai ir bijusi uz publiskā sektora procesu uzlabošanu; norāda uz tās sadarbspēju ar iepriekšējām sistēmām;
66. prasa dalībvalstīm vadīt šo digitālo pārveidi, pozicionējot sevi kā galvenos atbildīgos lietotājus un MI tehnoloģiju pircējus; uzsver šajā kontekstā, ka dalībvalstīm jāpielāgo sava datu politika cita starpā attiecībā uz publisku datu vākšanu, izmantošanu, uzkrāšanu vai anotēšanu, lai varētu ieviest MI visā publiskajā sektorā;
67. uzsver nepieciešamību MI izstrādes procesā iesaistīt sabiedrību; tāpēc aicina Komisiju visus publiski finansētus vai līdzfinansētus algoritmus, rīkus un tehnoloģijas publiskot kā atklātu avotu;
68. uzskata, ka MI būs nozīmīgs ieguvums, lai īstenotu principu “tikai vienreiz”, ļaujot apvienot datubāzes un informāciju no dažādiem avotiem un tādējādi atvieglojot pilsoņu mijiedarbību ar valsts pārvaldes iestādēm;
69. aicina Komisiju nodrošināt iedzīvotāju aizsardzību pret jebkurām MI vērtēšanas lēmumu sistēmām valsts pārvaldes iestādēs, kas ir līdzīgas tām, kuras plānots izmantot Ķīnā;
3.1.2. Veselības aprūpe
70. uzsver, ka saskare ar cilvēku ir būtisks aspekts cilvēku aprūpē;
71. norāda — pieaugot vidējam mūža ilgumam, MI un robotika var potenciāli dot labumu aprūpes nozarē, piemēram, palīdzot ārstiem un medmāsām atvēlēt vairāk laika augstvērtīgām darbībām (piemēram, saskarsmei ar pacientiem);
72. ņem vērā jau panākto MI ietekmi uz labsajūtu, profilaksi, diagnostiku un pētījumiem un tā lielo potenciālu personalizētas aprūpes nodrošināšanai; uzskata, ka tas galu galā radīs ilgtspējīgāku, efektīvāku un uz rezultātiem balstītu veselības aprūpes ekosistēmu;
73. norāda, ka tad, kad MI apvieno ar cilvēka uzstādītu diagnozi, kļūdas iespējamība parasti ir ievērojami mazāka nekā tad, kad diagnozi uzstāda tikai ārsts[8];
74. uzsver, ka datu izmantošana veselības nozarē ir rūpīgi un ētiski jāuzrauga un nekādā veidā nedrīkst kavēt piekļuvi sociālajai aizsardzībai vai apdrošināšanai;
75. uzskata — ja MI izmanto implantētās medicīnas ierīcēs, nēsātājam jābūt tiesībām pārbaudīt un pārveidot ierīcē izmantoto pirmkodu;
76. īpaša uzmanība būtu jāpievērš lielo datu izmantošanai veselības aprūpē, lai maksimizētu iespējas, ko tie var sniegt, piemēram, uzlabot atsevišķu pacientu veselību, kā arī dalībvalstu sabiedrības veselības sistēmas, nepazeminot ētikas standartus un neapdraudot iedzīvotāju privātumu vai drošumu;
77. tomēr uzsver, ka pastāvošā medicīnas ierīču apstiprināšanas sistēma nevarētu būt piemērota MI tehnoloģijām; aicina Komisiju cieši uzraudzīt šo tehnoloģiju progresu un vajadzības gadījumā ierosināt tiesiskā regulējuma izmaiņas, lai izveidotu sistēmu lietotāja (ārsta/profesionāļa), tehnoloģiskā risinājuma ražotāja un veselības aprūpi sniedzošās iestādes atbildības noteikšanai; norāda, ka tiesiskā atbildība par kaitējumu ir galvenais jautājums veselības aprūpes nozarē, kur notiek MI izmantošana; tāpēc uzsver vajadzību nodrošināt, ka lietotāji netiks vienmēr novesti pie tā, ka viņi atbalstīs tehnoloģiskā instrumenta diagnostisko risinājumu vai ārstēšanu, baidoties tikt apsūdzētiem par radītajiem zaudējumiem, ja, pamatojoties uz savu profesionālo spriedumu, tie nonāktu pie secinājumiem, kas kaut vai daļēji atšķirtos;
78. aicina dalībvalstis un Komisiju palielināt finansējumu ar veselības aprūpi saistītām MI tehnoloģijām publiskajā un privātajā sektorā; šajā kontekstā atzinīgi vērtē 24 ES dalībvalstu un Norvēģijas parakstīto sadarbības deklarāciju, lai Eiropas līmenī palielinātu investīciju ietekmi MI jomā; aicina dalībvalstis un Komisiju apsvērt, vai apmācības programmas medicīnas un veselības aprūpes darbiniekiem būtu jāatjaunina un jāstandartizē visā Eiropā, lai dalībvalstīs nodrošinātu augsta līmeņa zināšanas un vienlīdzīgus konkurences apstākļus attiecībā uz zināšanām un visprogresīvāko tehnoloģisko instrumentu izmantošanu robotoperācijās, biomedicīnā un uz MI balstītā biomedicīnisko attēlu iegūšanā;
79. aicina Komisiju strādāt pie stratēģijām un politikas nostādnēm, kas ES var padarīt par vienu no pasaules līderiem augošajā veselības aprūpes tehnoloģiju jomā, vienlaikus nodrošinot, ka pacientiem ir pieejama stabila un efektīva medicīniskā aprūpe;
80. atzīst, ka labāka diagnostika varētu glābt miljoniem dzīvību, jo, kā norāda Pasaules Veselības organizācija, visā Eiropā 89 % gadījumu priekšlaicīgas nāves iemesls ir nepārnēsājamas slimības;
81. uzsver MI un robotikas ieguldījumu profilakses, klīniskās un rehabilitācijas prakses un metožu inovācijā veselības nozarē, īpaši attiecībā uz ieguvumu pacientiem ar invaliditāti;
82. atzīst, ka pastiprinātā sensoru izmantošana robotikas jomā ir paplašinājusi aprūpes nodrošināšanas tvērumu un ļauj pacientiem saņemt personalizētāku ārstēšanu un pakalpojumus, kā arī saņemt to attālināti, atrodoties mājās, vienlaikus arī iegūstot būtiskākus datus;
83. atzīst, ka saskaņā ar Eirobarometra 2017. gada maija aptauju[9] pašlaik ES iedzīvotāji joprojām nepieņem ideju par robotiem ikdienas veselības aprūpē; aicina Komisiju un dalībvalstis izstrādāt stratēģijas un informēšanas kampaņas, lai palielinātu izpratni par priekšrocībām, ko ikdienas dzīvē nodrošinās roboti; jo īpaši norāda uz Japānas Robotikas stratēģijas vērienīgumu;
3.1.3. Enerģētika
84. norāda, ka MI ļauj enerģijas piegādātājiem pāriet no preventīvas aktīvu pārvaldības uz prognozējošu aktīvu pārvaldību un panākt efektīvāku enerģijas ražošanu, uzlabojot jo īpaši atjaunojamo energoresursu uzticamību un nosakot efektīvākās atrašanās vietas jaunām iekārtām, tādējādi nodrošinot labāku pieprasījumreakcijas pārvaldību;
85. atzīst, ka MI sagatavotie precīzākie dati par atjaunojamās enerģijas ražošanas potenciālu radīs lielāku investīciju drošību uzņēmumiem un privātpersonām, tādējādi paātrinot enerģētikas pārkārtošanu uz atjaunojamiem energoresursiem un veicinot Savienības ilgtermiņa stratēģiju attiecībā uz klimatneitrālu ekonomiku;
86. norāda, ka jau tiek izmantoti risinājumi, kuros pielieto sensorus, lai pārvaldītu enerģijas izmantojumu ēkās, un ka tas ir ļāvis gūt ievērojamus enerģijas un finansiālos ietaupījumus;
87. atzinīgi vērtē MI potenciālu modelēt, apzināt un mazināt cilvēka darbības ietekmi uz klimatu; norāda — kaut arī digitalizācijas paplašināšana rada arī jaunas vajadzības pēc enerģijas, tā var nodrošināt arī lielāku efektivitāti energoietilpīgajās nozarēs un nodrošināt labāku izpratni par procesiem, kā rezultātā tie tiek uzlaboti;
88. uzsver — arvien vairāk digitalizējot enerģētikas sektoru, enerģijas tīkli paplašinās un ir vairāk pakļauti kiberdraudiem; aicina dalībvalstis un Komisiju enerģētikas nozares digitālo pārveidi papildināt ar tādiem elementiem kā mākslīgais intelekts, kas uzlabo kiberdrošību;
3.1.4. Transports
89. atzinīgi vērtē MI un robotikas spēju ievērojami uzlabot mūsu transporta sistēmas, ieviešot bezvadītāja vilcienus un mehāniskos transportlīdzekļus; aicina veikt plašāku pētniecību un investīcijas šajā jomā, lai garantētu drošu un efektīvu attīstību; uzsver milzīgās iespējas gan lielākiem tehnoloģiju uzņēmumiem, gan MVU;
90. norāda — samazinot cilvēku kļūdas transporta nozarē, var uzlaboties sistēmas efektivitāte ar retākiem satiksmes negadījumiem, pateicoties skaidrākiem novērtējumiem un tehnoloģija paredzēšanas spējām, retākiem transporta kavējumiem, spēju plānot satiksmes modeļus un nodrošināt pakalpojumus atbilstoši grafikam, kā arī var rasties lielāki ietaupījumi, jo būs mazāk ar vadītāju saistītu kļūmju un tiks racionalizēti iekšējie procesi;
91. norāda, ka autonomo transportlīdzekļu izplatība nākotnē radīs riskus datu privātumam un tehniskas kļūmes un pārcels atbildību no vadītāja uz ražotāju, tāpēc apdrošināšanas uzņēmumiem vajadzēs mainīt to, kā tie veidos savu risku parakstīšanas politiku;
92. norāda, ka balss sakari arvien biežāk tiek izmantoti, lai mijiedarbotos ar transportlīdzekļiem un transporta sistēmām, taču šīs funkcijas ir pieejamas tikai nedaudzās Eiropas valodās, tādēļ jānodrošina, lai visi eiropieši varētu izmantot šīs iespējas savā dzimtajā valodā;
3.1.5. Lauksaimniecība un pārtikas aprite
93. norāda, ka MI potenciāli var kalpot kā katalizators pašreizējās pārtikas sistēmas pamatīgai pārveidošanai par daudzveidīgāku, noturīgāku, reģionāli vairāk pielāgotu un veselīgāku nākotnes modeli;
94. norāda uz MI potenciālo lomu centienos palīdzēt risināt ar pārtikas nekaitīgumu saistītus jautājumus, prognozēt badu un ar pārtiku iegūtu slimību uzliesmojumus, samazināt pārtikas zudumus un atkritumus, kā arī uzlabot zemes, ūdens un citu vides resursu ilgtspējīgu apsaimniekošanu, kas ir būtiski ekosistēmu veselībai;
95. uzsver, ka MI, labāk informējot par zemes izmantošanas plānošanas praksi, var piedalīties kritiskos punktos visā pārtikas sistēmas vērtību ķēdē no ražošanas līdz patēriņam un palielināt mūsu spēju būtiski izmainīt veidu, kā ražojam, apstrādājam un iegādājamies pārtikas produktus;
96. norāda, ka MI var uzlabot resursu apsaimniekošanu un ražošanas izmaksu efektivitāti, palīdzēt samazināt ražas novākšanas atlieku daudzumu un ietekmēt patērētāju izvēli;
97. norāda, ka MI precīzās lauksaimnieciskās ražošanas veidā var potenciāli būtiski transformēt lauksaimniecisko ražošanu, kā arī paplašināt zemes apsaimniekošanu, uzlabojot zemes izmantošanas plānošanu, prognozējot izmaiņas zemes izmantošanā un uzraugot kultūraugu veselību, vienlaikus arī radot iespēju mainīt ārkārtēju laikapstākļu prognozēšanu;
98. norāda, ka MI var radikāli izmainīt ražošanas resursu piegādi, kaitēkļu apkarošanu un saimniecību pārvaldību, ietekmēt lauksaimniecības praksi, mainīt veidu, kādā tiek nodrošināti apdrošināšanas produkti, vai palīdzēt prognozēt un nepieļaut badu un akūtas uztura nepietiekamības smagus uzliesmojumus nākotnē;
99. norāda, ka MI var novest pie labākiem lēmumiem par to, kā pārvaldīt lauku saimniecību sistēmas, un veicināt lēmumu atbalsta un ieteikumu sistēmu attīstību, uzlabojot lauku saimniecību efektivitāti un veselību;
3.1.6. Kiberdrošība
100. norāda, ka kiberdrošība ir svarīgs MI aspekts, jo īpaši ņemot vērā augsta līmeņa MI radītās pārredzamības problēmas; uzskata, ka tehnoloģiskā perspektīva, tostarp pirmkoda pārskatīšana un pārredzamības un atbildīguma prasības, būtu jāpapildina ar institucionālu pieeju, risinot problēmas, kas rodas, citās valstīs izstrādātu MI ieviešot ES vienotajā tirgū;
101. prasa ātri īstenot Kiberdrošības tiesību aktu; norāda, ka ES sertifikācijas shēmu izstrādei būtu jānodrošina drošu MI un robotikas sistēmu stabilāka attīstība un ieviešana;
102. uzskata, ka MI vienlaikus var būt kiberdrošības apdraudējums un līdzeklis cīņā pret kiberuzbrukumiem; uzskata, ka ES Tīklu un informācijas drošības aģentūrai (ENISA) būtu jāizstrādā rīcības plāns par kiberdrošību MI jomā, kurā būtu jānovērtē un jāpiedāvā risinājumi ar MI saistītiem apdraudējumiem un trūkumiem;
103. uzsver, ka ir svarīgi nostiprināt rūpniecisko bāzi kā drošas MI attīstības stratēģisku sastāvdaļu; uzsver — lai nodrošinātu augstu kiberdrošības līmeni, datu aizsardzību un uzticamus IKT pakalpojumus, Eiropai jāinvestē savā tehnoloģiskajā neatkarībā; uzsver steidzamo nepieciešamību ES attīstīt savu infrastruktūru, datu centrus, mākoņdatošanas sistēmas un komponentus, piemēram, grafikas procesorus un mikroshēmas;
104. norāda, ka MI attīstās un hakeri kļūst arvien izsmalcinātāki, tāpēc būs nepieciešami pamatīgi kiberdrošības risinājumi;
105. atzīst, ka MI risinājumu ieviešana kiberdrošības jomā padarīs iespējamu prognozēšanu, novēršanu un apdraudējuma samazināšanu;
106. uzsver — lai gan MI spēj nodrošināt lielāku aptveramību draudu atklāšanā, ir būtiski, ka tas ir cilvēks, kas novērtē šos draudus, lai noteiktu, vai tie ir patiesi vai nē;
107. aicina Komisiju izpētīt iespēju izmantot kiberdrošības lietotnes, kuru pamatā ir blokķēde un kuras uzlabo MI infrastruktūru noturību, uzticamību un stabilitāti, izmantojot datu šifrēšanas modeļus bez starpniekiem; aicina Komisiju izpētīt iespēju atlīdzināt iedzīvotājiem par viņu datiem, izmantojot īpašas autentifikācijas marķierierīces;
108. aicina Komisiju nostiprināt ES kiberdrošības spējas, turpinot apvienot un koordinēt centienus visā Eiropā;
3.1.7. MVU
109. atzīst MVU nozīmi MI panākumu nodrošināšanā; atzinīgi vērtē Komisijas iniciatīvu izveidot platformu “MI pēc pieprasījuma”, kas veicinās tehnoloģiju pārnesi un jaunuzņēmumu un MVU izaugsmi; aicina Komisiju veicināt MI digitālo inovāciju centrus, kas nerada papildu administratīvos slāņus, bet tā vietā koncentrējas uz investīciju paātrināšanu projektos, kuri izrādījušies efektīvi;
110. norāda, ka investīciju izmaksas MI jomā rada lielus šķēršļus MVU ienākšanai šajā nozarē; atzīst, ka plaša MI pieņemšana no patērētāju puses samazinātu investīciju mazajos un vidējos uzņēmumos risku;
111. uzsver vajadzību veicināt gan MI pieņemšanu no MVU puses, gan tā izmantošanu no patērētāju puses;
112. uzsver, ka ir svarīgi veikt mērķētus pasākumus, lai MVU un jaunuzņēmumi varētu pieņemt MI tehnoloģijas un gūt labumu no tām; uzskata, ka jauno ES tiesību aktu ietekmes novērtējumam attiecībā uz MI tehnoloģisko attīstību jābūt obligātam un šādus ietekmes novērtējumus jāapsver arī valstu līmenī;
113. uzsver, ka MI var būt MVU veicinātājs, bet ka tas arī palielina lielo agrīno piemērotāju un izstrādātāju ietekmi; tādēļ norāda uz nepieciešamību no konkurences viedokļa nodrošināt, ka jaunie kropļojumi tiek pienācīgi izvērtēti un novērsti;
4. Mākslīgā intelekta un robotikas tiesiskais regulējums
114. aicina Komisiju — lai veicinātu MI izstrādei labvēlīgu normatīvo vidi un ievērotu labāka regulējuma principu — regulāri pārvērtēt spēkā esošos tiesību aktus nolūkā nodrošināt, ka tie atbilst MI mērķiem, vienlaikus arī ievērojot ES pamatvērtības, un censties grozīt vai aizstāt tos ar jauniem priekšlikumiem, ja tas tā nav;
115. atzinīgi vērtē uz MI balstītu līdzdalības platformu izveidi, kas nodrošina veiksmīgāku iedzīvotāju uzklausīšanu un mijiedarbību ar valdībām, iesniedzot priekšlikumus, tostarp izmantojot līdzdalības budžetus un citus tiešās demokrātijas instrumentus; uzsver, ka augšupvērstie projekti var veicināt iedzīvotāju līdzdalību un palīdzēt cilvēkiem efektīvāk un demokrātiskāk pieņemt apzinātus lēmumus;
116. norāda, ka MI ir jēdziens, kas ietver plašu ražojumu un lietotņu klāstu, sākot no automatizācijas, algoritmiem un specifiska lietojuma mākslīgā intelekta līdz vispārējam mākslīgajam intelektam; uzskata, ka visaptveroši MI tiesību akti vai regulējums ir jāpiemēro piesardzīgi, jo nozaru regulējums var nodrošināt pietiekami vispārīgu rīcībpolitiku, kā arī tie jāprecizē līdz tādam līmenim, kurā tie būtu noderīgi rūpniecības nozarei;
117. uzsver, ka politikas satvars jāveido tā, lai veicinātu visu veidu MI izstrādi un ne tikai mašīnu dziļās mācīšanās sistēmas, kurām ir nepieciešami milzīga apjoma dati;
4.1. Mākslīgā intelekta iekšējais tirgus
118. uzsver, cik svarīgs ir savstarpējās atzīšanas princips viedo preču, tostarp robotu un robotikas sistēmu, pārrobežu izmantošanā; atgādina, ka vajadzības gadījumā testēšanai, sertifikācijai un ražojumu drošībai būtu jāgarantē, ka konkrētu preču drošība ir integrēta jau projektēšanas posmā un ir automātiska; šajā sakarā norāda, ka ir svarīgi arī strādāt pie MI ētikas aspektiem;
119. uzsver, ka ES tiesību aktiem, kas saistīti ar digitālā vienotā tirgus stratēģijas īstenošanu, būtu jānovērš šķēršļi MI izvēršanai; aicina Komisiju izvērtēt, kur ir nepieciešams atjaunināt politiku un tiesisko regulējumu, lai izveidotu vienotu Eiropas MI tirgu;
120. atzīst, ka robotikas un MI tehnoloģijas arvien plašāk izmanto autonomos transportlīdzekļos, piemēram, autonomos vieglajos automobiļos un civilajos bezpilota lidaparātos; norāda, ka dažas dalībvalstis jau ievieš vai apsver ieviest tiesību aktus īpaši šajā jomā, kas varētu izrādīties atšķirīgi, tādējādi kavējot autonomu transportlīdzekļu attīstību; tādēļ prasa izstrādāt vienotu Savienības noteikumu kopumu, kas nodrošinātu pareizo līdzsvaru starp lietotāju, uzņēmumu un citu iesaistīto pušu interesēm un potenciālajiem riskiem, vienlaikus izvairoties no pārmērīga regulējuma robotikas un MI sistēmu jomā;
121. mudina dalībvalstis modernizēt savas profesionālās apmācības un izglītības sistēmas, lai ņemtu vērā zinātnes attīstību un norises MI jomā saskaņā ar Proporcionalitātes testa direktīvu[10] un Profesionālo kvalifikāciju direktīvu[11], un nākamajās desmitgadēs nodrošināt ES profesionālo pakalpojumu konkurētspēju pasaules mērogā;
122. uzsver, ka MI tiek izmantots dažādās nozarēs, kurās standartizācija ir ļoti svarīga, piemēram, viedajā ražošanā, robotikā, autonomajos transportlīdzekļos, virtuālajā realitātē, veselības aprūpē un datu analīzē, un uzskata, ka ES mēroga standartizācija MI jomā sekmēs inovāciju un nodrošinās augstu patērētāju aizsardzības līmeni; atzīst — lai gan pastāv ievērojams skaits standartu tādos jautājumos kā drošums, uzticamība, savietojamība un drošība, ir nepieciešama robotikas un MI kopīgu standartu turpmāka veicināšana un izstrāde, un tai vajadzētu būt daļai no Savienības prioritātēm; aicina Komisiju kopā ar ES standartizācijas iestādēm proaktīvi sadarboties ar starptautiskajām standartizācijas organizācijām standartu uzlabošanā šajā jomā;
123. atgādina, ka uz daudziem politikas aspektiem, kas ir saistīti ar MI pakalpojumiem, tostarp patērētāju aizsardzības noteikumiem un ētikas un atbildības politiku, attiecas spēkā esošais pakalpojumu tiesiskais regulējums, proti, Pakalpojumu direktīva[12], Profesionālo kvalifikāciju direktīva un E–tirdzniecības direktīva[13]; šajā kontekstā uzsver, ka galīgā atbildība par lēmumu pieņemšanu vienmēr ir jāuzņemas cilvēkiem, jo īpaši attiecībā uz profesionāliem pakalpojumiem, piemēram, tādiem, kurus sniedz medicīnas, juridisko un grāmatvedības profesiju pārstāvji; uzskata, ka ir jāpārdomā, vai ir nepieciešama kvalificēta profesionāla uzraudzība, lai aizsargātu leģitīmus sabiedrības interešu mērķus un nodrošinātu augstas kvalitātes pakalpojumus;
124. atzīst, ka ir svarīgi uzlabot digitālos pakalpojumus, piemēram, virtuālos palīgus, autonomas programmas šablonveida atbilžu sniegšanai un virtuālus aģentus, radot līdz šim nepieredzētu darbības efektivitāti un vienlaikus pienācīgi atzīstot vajadzību attīstīt cilvēkorientētu un tirgus vajadzībām atbilstošu MI, lai pieņemtu labākus un uzticamākus lēmumus nolūkā noteikt robežas MI un robotikas autonomijai;
4.2. Personas dati un privātums
125. uzsver, ka ir jānodrošina augsts drošības, drošuma un privātuma līmenis attiecībā uz datiem, ko izmanto sakariem starp cilvēkiem un robotiem un mākslīgo intelektu; tādēļ aicina Komisiju un dalībvalstis integrēt drošību un privātumu kā izstrādes pamatprincipus politikas jomās, kas saistītas ar robotiku un mākslīgo intelektu;
126. atgādina, ka tiesības uz privātās dzīves aizsardzību un tiesības uz persondatu aizsardzību, kā noteikts Pamattiesību hartas 7. un 8. pantā un Līguma par Eiropas Savienības darbību 16. pantā, attiecas uz visām robotikas un mākslīgā intelekta jomām un ka Savienības tiesiskais regulējums par datu aizsardzību ir pilnībā jāievēro; uzsver robotikas sistēmu un mākslīgā intelekta izstrādātāju pienākumu ražojumus izstrādāt tā, lai tie būtu droši un piemēroti mērķim, un ievērot datu apstrādes procedūras saskaņā ar spēkā esošajiem tiesību aktiem, kā arī konfidencialitāti, anonimitāti, taisnīgu attieksmi un pienācīgu procesu;
127. aicina Komisiju nodrošināt, ka visos Savienības tiesību aktos par mākslīgo intelektu tiek iekļauti pasākumi un noteikumi, kuros ņemta vērā straujā tehnoloģiskā attīstība šajā jomā, lai panāktu, ka Savienības tiesību aktu saturs neatpaliek no tehnoloģiju attīstības un ieviešanas līknes; uzsver, ka šādiem tiesību aktiem jāatbilst privātuma un datu aizsardzības noteikumiem; aicina saskaņā ar Savienības datu aizsardzības tiesisko regulējumu attiecībā uz mākslīgo intelektu pārskatīt noteikumus, principus un kritērijus kameru un sensoru izmantošanai robotos;
128. aicina Komisiju nodrošināt, ka visi turpmākie ES reglamentējošie noteikumi attiecībā uz MI garantē saziņas privātumu un konfidencialitāti, persondatu aizsardzību, tostarp likumības, godīguma un pārredzamības principus, integrētu datu aizsardzību un datu aizsardzību pēc noklusējuma, mērķa ierobežojumu, glabāšanas ierobežojumu, precizitāti un datu minimizēšanu, pilnībā ievērojot Savienības tiesību aktus datu aizsardzības jomā, kā arī drošību, personīgo drošumu un citas pamattiesības, piemēram, tiesības uz vārda brīvību un informāciju;
129. uzsver, ka vienmēr ir jāievēro tiesības uz privātumu un privātpersonām jābūt neidentificējamām; uzsver, ka MI izstrādātājam vienmēr būtu jāsaņem skaidra, nepārprotama un apzināta piekrišana un ka MI izstrādātāji ir atbildīgi par spēkā esošas piekrišanas, konfidencialitātes, anonimitātes, taisnīgas attieksmes un pienācīgas procedūras izstrādi un ievērošanu; uzsver, ka izstrādātājiem ir jāizpilda visi pieprasījumi attiecībā uz visu saistīto datu iznīcināšanu un izslēgšanu no visām datu kopām;
130. atgādina, ka Regulā (ES) 2018/1807[14] par nepersondatu brīvu apriti teikts, ka, “ja tehnoloģiskā attīstība dod iespēju anonimizētus datus pārveidot par persondatiem, šādi dati uzskatāmi par persondatiem un attiecīgi ir piemērojama Regula (ES) 2016/679”;
4.3. Atbildība
131. atzinīgi vērtē Komisijas iniciatīvu izveidot ekspertu grupu atbildības un jauno tehnoloģiju jautājumos, lai ES orientētos jautājumos par to, vai Produktatbildības direktīva[15] ir piemērojama tradicionālajiem produktiem, jaunām tehnoloģijām un jaunām sabiedrības problēmām (Produktatbildības direktīvas apakšgrupa), un palīdzētu ES izstrādāt principus, kurus var izmantot kā vadlīnijas ES un valstu līmenī piemērojamo tiesību aktu par jaunajām tehnoloģijām iespējamai pielāgošanai (jauno tehnoloģiju apakšgrupa);
132. tomēr pauž nožēlu par to, ka šā sasaukuma laikā netika iesniegts neviens tiesību akta priekšlikums, tādējādi kavējot atbildības noteikumu aktualizēšanu ES līmenī un apdraudot ES juridisko noteiktību šajā jomā gan tirgotājiem, gan patērētājiem;
133. norāda, ka MI inženieriem vai uzņēmumiem, kas viņus nodarbina, arī turpmāk jābūt atbildīgiem par ietekmi uz sociālo jomu, vidi un cilvēka veselību, ko MI sistēmas vai robotika var radīt pašreizējai un nākamajām paaudzēm;
4.4. Patērētāju tiesību aizsardzība un nostiprināšana
134. uzsver, ka patērētāju uzticēšanās ir būtiska MI izstrādei un ka uz MI balstītas sistēmas apstrādā arvien vairāk patērētāju datu, padarot tos par kiberuzbrukumu primāro mērķi; uzsver arī to, ka MI ir jādarbojas tā, lai tas nekaitētu iedzīvotājiem un patērētājiem, un uzskata, ka tādēļ ir jānodrošina to datu un algoritmu integritāte, uz kuriem tas balstās;
135. uzskata, ka attiecībā uz MI tehnoloģijām, kas ir izstrādātas gan ražošanai, gan individuālai lietošanai, tirgus uzraudzības iestādēm būtu jāveic ražojumu drošības pārbaudes un jāpiemēro patērētāju aizsardzības noteikumi, attiecīgā gadījumā nodrošinot minimālos drošības standartus un novēršot nelaimes gadījumu risku, ko rada mijiedarbība ar cilvēkiem vai darbs saskarē ar cilvēkiem; uzskata, ka ētikas jautājumi un jautājumi par datu, tostarp trešo pušu un persondatu, aizsardzību, civiltiesisko atbildību un kiberdrošību būtu jārisina jebkurā politikas jomā, kas attiecas uz MI;
4.5. Intelektuālā īpašuma tiesības
136. atgādina iepriekš minēto 2017. gada 16. februāra rezolūciju, kurā Parlaments norādīja, ka nav tādu tiesību normu, kas būtu īpaši piemērojamas robotikai, bet ka spēkā esošie juridiskie režīmi un doktrīnas var viegli tikt piemēroti robotikai, lai gan daži aspekti, šķiet, prasa īpašu uzmanību; atkārtoti izsaka šajā rezolūcijā pausto aicinājumu Komisijai atbalstīt horizontālu un tehnoloģiski neitrālu pieeju intelektuālajam īpašumam, kas piemērojama dažādās nozarēs, kurās var nodarbināt robotus;
137. šajā sakarā atzinīgi vērtē Komisijas paziņojumu iestādēm “Norādījumi par dažiem aspektiem Eiropas Parlamenta un Padomes Direktīvā 2004/48/EK par intelektuālā īpašuma tiesību piemērošanu” (COM(2017)0708), bet uzsver nepieciešamību uzraudzīt intelektuālā īpašuma tiesību noteikumu atbilstību un efektivitāti, lai pārvaldītu MI izstrādi; šajā sakarā uzsver to, cik liela nozīme ir atbilstības pārbaudēm;
5. Ētikas aspekti
138. uzskata, ka mākslīgā intelekta darbībām un lietotnēm būtu jāatbilst ētikas principiem un attiecīgajiem valsts, Savienības un starptautiskajiem tiesību aktiem;
139. aicina izstrādāt paraugprakses ētikas hartu MI un robotikas jomā, kas būtu jāievēro uzņēmumiem un ekspertiem;
140. aicina Komisiju un dalībvalstis veicināt stingru un pārredzamu sadarbību starp publisko un privāto sektoru un akadēmiskajām aprindām, kas stiprinātu zināšanu apmaiņu, kā arī veicinātu izstrādātāju izglītību un apmācību par ētiskajām sekām, drošumu un pamattiesību ievērošanu, kā arī patērētāju apmācību par robotikas un mākslīgā intelekta izmantošanu, īpašu uzmanību pievēršot drošumam un datu privātumam;
141. aicina Komisiju nodrošināt, ka MI lietotnes neizmanto datus, kas iegūti no dažādiem avotiem, pirms tam nesaņemot datu subjekta piekrišanu; aicina Komisiju izveidot sistēmu, kas nodrošinātu, ka pēc datu subjekta piekrišanas ģenerētie dati tiks izmantoti tikai paredzētajiem mērķiem;
142. aicina Komisiju ievērot iedzīvotāju tiesības uz dzīvi bezsaistē un nodrošināt to, ka netiek diskriminēti iedzīvotāji, par kuriem nav datu;
5.1. Cilvēkorientēta tehnoloģija
143. uzsver, ka ir jābūt pieņemtiem ētikas noteikumiem, lai nodrošinātu cilvēkorientēta MI attīstību, algoritmisku lēmumu pieņemšanas sistēmu pārskatatbildību un pārredzamību, skaidrus atbildības noteikumus un godīgumu;
144. atzinīgi vērtē Komisijas iniciatīvu izveidot Mākslīgā intelekta augsta līmeņa ekspertu grupu, kā arī ES MI alianses tīklu, lai izstrādātu ētikas vadlīnijas MI jomā; aicina Komisiju nodrošināt plašāko iespējamo šo ētikas vadlīniju izmantošanu nozarē, akadēmiskajās aprindās un publiskajās iestādēs; iesaka dalībvalstīm iekļaut šīs vadlīnijas nacionālajās MI stratēģijās un izveidot reālas pārskatatbildības struktūras nozaru un valdību vajadzībām, kad tās izstrādā un ievieš MI;
145. uzskata, ka būtiska nozīme ir MI ētikas vadlīniju īstenošanas nepārtrauktai uzraudzībai un ietekmei uz cilvēkorientēta MI izstrādi; aicina Komisiju analizēt, vai brīvprātīgas ētikas vadlīnijas ir pietiekamas, lai nodrošinātu, ka iekļaujošā un ētiski pamatotā MI ieviešana nerada ekonomiskas un sociālas atšķirības dažādās ES sabiedrības daļās, un vajadzības gadījumā ierosināt regulatīvus un politiskus pasākumus;
146. norāda uz uzvedības analīzes jaunākajiem sasniegumiem uzvedības novērošanā un secinājumiem, kā tai pielāgoties; aicina Komisiju izstrādāt ētikas sistēmu, kas ierobežotu tās izmantošanu; mudina Komisiju veicināt izpratni un sarīkot informēšanas kampaņu par MI un tā izmantošanu uzvedības analīzē;
5.2. Tehnoloģijās iegultas vērtības — integrēts ētiskums
147. norāda, ka vadošās ētikas sistēmas pamatā jābūt labdarīguma, nekaitēšanas, autonomijas un tiesiskuma principiem, kā arī tiem principiem un vērtībām, kas noteiktas Līguma par Eiropas Savienību 2. pantā un Pamattiesību hartā, piemēram, cilvēka cieņai, vienlīdzībai, tiesiskumam un taisnīgumam, nediskriminācijai, apzinātai piekrišanai, privātās un ģimenes dzīves un datu aizsardzībai, kā arī citiem Savienības tiesību aktu pamatprincipiem un vērtībām, piemēram, nestigmatizācijai, pārredzamībai, autonomijai, individuālai atbildībai un sociālai atbildībai, kā arī spēkā esošajām ētikas praksēm un kodeksiem;
148. uzskata, ka Eiropai ir jāuzņemas vadošā loma pasaulē, ieviešot tikai ētisku MI; uzsver, ka šā mērķa sasniegšanai MI ētikas pārvaldība ir jānodrošina dažādos līmeņos; iesaka dalībvalstīm izveidot MI ētikas uzraudzības un pārraudzības struktūras un mudina MI izstrādājošos uzņēmumus veidot ētikas padomes un izstrādāt ētikas vadlīnijas saviem MI izstrādātājiem;
149. uzsver, ka Eiropas MI standartu pamatā jābūt digitālās ētikas, cilvēka cieņas, pamattiesību ievērošanas, datu aizsardzības un drošības principiem, tādējādi veicinot uzticēšanos lietotāju vidū; uzsver, ka ir svarīgi izmantot ES potenciālu radīt spēcīgu infrastruktūru MI sistēmām, balstoties uz augstiem datu un cieņas pret cilvēkiem standartiem; norāda, ka MI izstrādei ir jābalstās uz pārredzamību un izskaidrojamību;
150. norāda, ka automātisko ieroču sistēmām arī turpmāk jāpiemēro pieeja, ka mākslīgo intelektu kontrolē cilvēks;
5.3. Lēmumu pieņemšana — ierobežojumi mākslīgā intelekta un robotikas autonomijai
151. uzsver, cik grūti un komplicēti ir prognozēt daudzu sarežģītu MI sistēmu turpmāko uzvedību un mijiedarbīgu MI sistēmu jauno rīcību; aicina Komisiju novērtēt, vai ir vajadzīgi īpaši noteikumi attiecībā uz lēmumu pieņemšanu, izmantojot MI;
152. norāda, ka mākslīgais intelekts arī turpmāk būs noderīgs rīks sadarbībai ar cilvēka rīcību, lai uzlabotu tās veikumu un samazinātu kļūdu skaitu;
153. prasa, lai cilvēkiem būtu tiesības zināt, iesniegt apelācijas sūdzību un pieprasīt atlīdzību, kad MI ir izmantots, lai pieņemtu lēmumus, kas šīs personas skar un rada būtisku apdraudējumu personas tiesībām un brīvībai vai var nodarīt viņiem kaitējumu;
154. uzsver, ka lēmumu pieņemšanas sistēmās algoritmi nebūtu jāizmanto bez iepriekšēja algoritmiskās ietekmes novērtējuma (AIA), ja vien nav skaidrs, ka tam nav būtiskas ietekmes uz cilvēku dzīvi;
155. uzskata, ka mākslīgajam intelektam, jo īpaši sistēmām ar iebūvētu autonomiju, tostarp spējai patstāvīgi izgūt, apkopot un ar dažādām ieinteresētajām personām kopīgot jutīgu informāciju, kā arī spējai pašam mācīties vai pat attīstīties līdz līmenim, kad tas var pats sevi izmainīt, būtu jāpiemēro stingri principi; uzsver, ka MI sistēmas nedrīkst uzglabāt vai izpaust personas konfidenciālu informāciju bez šīs informācijas avota skaidras piekrišanas;
5.4. Algoritmu pārredzamība, novirzes un izskaidrojamība
156. norāda — lai gan MI dod lielu labumu automatizācijā un lēmumu pieņemšanā, tam ir arī raksturīgs algoritmu statiskuma un nepārredzamības risks; šajā sakarā uzsver, ka ir jānodrošina lielāka algoritmu pārredzamība;
157. aicina Komisiju, dalībvalstis un datu aizsardzības iestādes apzināt un veikt visus iespējamos pasākumus, lai nepieļautu vai minimizētu algoritmisko diskrimināciju un novirzes un izstrādātu spēcīgu kopīgu ētikas satvaru pārredzamai persondatu apstrādei un automatizētai lēmumu pieņemšanai, kas vadītu datu izmantošanu un Savienības tiesību aktu piemērošanu;
158. uzsver, ka ikvienas MI sistēmas izstrādē ir jāievēro pārredzamības un algoritmu pārskatatbildības princips, kas cilvēkiem ļautu izprast MI darbības; norāda — lai palielinātu uzticēšanos MI un nodrošinātu progresu šajā jomā, lietotājiem ir jābūt informētiem par to, kā viņu dati, kā arī citi dati un no viņu datiem izrietošie dati tiek izmantoti, kad tie sazinās vai mijiedarbojas ar kādu no MI sistēmām vai ar cilvēkiem, kuri izmanto MI sistēmas atbalstu; uzskata, ka tas veicinās lietotāju labāku izpratni un uzticēšanos; uzsver, ka lēmumu saprotamībai jābūt ES standartam saskaņā ar Vispārīgās datu aizsardzības regulas (VDAR) 13., 14. un 15. pantu[16]; atgādina, ka VDAR jau paredz tiesības tikt informētam, kā notiek datu apstrāde; uzsver, ka saskaņā ar VDAR 22. pantu personām ir tiesības pieprasīt cilvēka iesaistīšanos gadījumos, kad uz automatizētu apstrādi balstīts lēmums viņus būtiski ietekmē;
159. uzsver, ka Komisijai, Eiropas Datu aizsardzības kolēģijai, dalībvalstu datu aizsardzības iestādēm un citām neatkarīgām uzraudzības iestādēm turpmāk vajadzētu uzņemties būtisku lomu veicināt pārredzamību un pienācīgu procesu, juridisko noteiktību kopumā un jo īpaši attiecībā uz konkrētiem standartiem, kas sargā ar datu apstrādes un analīzes izmantošanu saistītās pamattiesības un garantijas; prasa ciešāku sadarbību starp iestādēm, kuru uzdevums ir pārraudzīt vai reglamentēt rīcību digitālajā vidē; prasa piešķirt šīm iestādēm atbilstošu finansējumu un personālu;
160. atzīst, ka mašīnmācīšanās algoritmi tiek apmācīti mācīties patstāvīgi, atvieglojot automatizāciju un lēmumu pieņemšanu; aicina MI ētikas vadlīnijās pievērsties jautājumiem, kas saistīti ar algoritmisko pārredzamību, izskaidrojamību, pārskatatbildību un godīgumu;
161. uzsver, ka svarīga ir MI sistēmu rezultātu, procesu un vērtību izskaidrojamība, padarot tos saprotamus netehniskām mērķauditorijām un sniedzot tām jēgpilnu informāciju, kas ir nepieciešama, lai varētu novērtēt taisnīgumu un iegūt uzticību;
162. norāda, ka pārredzamības trūkums attiecībā uz šīm tehnoloģijām un to lietotnēm rada vairākus ētikas jautājumus;
163. norāda, ka MI sistēmām jābūt izskaidrojamām cilvēkiem un tām jānodrošina jēgpilna informācija, lai varētu sniegt atsauksmes; atzīst, ka MI modeļu stiprums ir atkarīgs no atsauksmēm un atkārtotas novērtēšanas, un atbalsta šo procesu;
164. norāda, ka iedzīvotājiem ir bažas par neziņu, kad tiek izmantots MI un kāda informācija tiek apstrādāta; iesaka sniegt skaidru informāciju, kad iedzīvotāji izmanto mākslīgo intelektu; uzsver — lai saglabātu patērētāju uzticību, ir svarīgi, lai nosūtītie dati būtu droši;
165. uzskata, ka algoritmu pārskatatbildība ir jāregulē politikas veidotājiem, kuri veic ietekmes novērtējumus, balstoties uz noteiktiem parametriem;
166. norāda, ka atvērts pirmkods pats par sevi neatrisinās MI pārredzamības jautājumu, jo tas neatklās pastāvošo neobjektivitāti un neizskaidros mašīnmācīšanās procesu; uzsver, ka pārredzamība nozīmē ne tikai koda pārredzamību, bet arī datu un automatizētas lēmumu pieņemšanas pārredzamību;
167. atzīst, ka pirmkoda atklāšana var izraisīt ļaunprātīgu algoritmu izmantošanu un manipulācijas ar tiem;
168. uzsver, ka ir svarīgi novērst izstrādātāja neobjektivitāti un ka tāpēc visās IT nozares jomās ir vajadzīgs daudzveidīgs darbaspēks, kā arī aizsargmehānismi, lai neļautu ar dzimumu un vecumu saistītu aizspriedumu iebūvēšanu MI sistēmās;
169. atzīst, ka koda vai tirdzniecības noslēpumu atklāšana arī atturētu uzņēmumus no jauna koda izpētes un izstrādes, jo tiktu apdraudēts to intelektuālais īpašums; norāda, ka tā vietā MI attīstībai būtu jāveicina modeļu interpretējamība un to mijiedarbība ar ievaddatiem un mācību datiem;
170. atzīst — lai gan pārredzamība un izskaidrojamība var atklāt trūkumus, tās negarantē uzticamību, drošību un godīgumu; tādēļ uzskata, ka pārskatatbildība ir būtiska, lai izveidotu uzticamu mākslīgo intelektu, ko var panākt ar dažādiem līdzekļiem, tādiem kā algoritmiskās ietekmes novērtējumi, revīzija un sertifikācija;
171. uzsver nepieciešamību izstrādāt protokolus pastāvīgai algoritmisko aizspriedumu uzraudzībai un atklāšanai;
172. norāda, ka algoritmu izstrādātājiem jānodrošina, lai no izstrādes posma sākuma un visā attīstības ciklā tiktu ievērotas tādas būtiskas prasības kā godīgums un izskaidrojamība;
173. norāda uz nepieciešamību pēc vadlīnijām, kurās būtu aprakstīta izstrādes paraugprakse;
174. uzsver, ka ir svarīgi parādīt izcelsmi, lai varētu izsekot MI modeļa vēsturei; uzskata, ka tas uzlabos izpratni par modeļiem un palīdzēs panākt uzticēšanos, pamatojoties uz to vēsturi;
175. uzsver, ka MI sistēmām jābūt skaidri identificētām mijiedarbībā ar lietotājiem;
176. uzsver, ka mākslīgā intelekta un robotikas izplatīšana būtu jāveic, pilnībā ievērojot cilvēktiesības, un ka nekādā gadījumā nedrīkst mašīnās un robotos reproducēt ne stereotipus pret sievietēm, ne arī jebkāda cita veida diskrimināciju;
177. norāda, ka pat augstas kvalitātes apmācības dati var novest pie diskriminācijas un netaisnības mūžīgas turpināšanās, ja tos neizmanto rūpīgi un apzināti; norāda, ka nekvalitatīvu, novecojušu, nepilnīgu vai nepareizu datu izmantošana dažādos datu apstrādes posmos var novest pie neprecīzām prognozēm un novērtējumiem un attiecīgi pie neobjektivitātes, kas galu galā var novest pie personu pamattiesību pārkāpumiem vai pilnīgi nepareiziem secinājumiem vai kļūdainiem rezultātiem; tāpēc uzskata, ka lielo datu laikmetā ir svarīgi nodrošināt, ka algoritmi tiek apmācīti par reprezentatīviem augstas kvalitātes datu paraugiem, lai panāktu statistisku paritāti; uzsver, ka pat tad, ja tiek izmantoti precīzi augstas kvalitātes dati, uz MI balstīta prognozējoša analīze var sniegt tikai statistisku varbūtību; atgādina, ka saskaņā ar VDAR, veicot persondatu turpmāku apstrādi statistikas nolūkos, tostarp MI apmācību, var apkopot vienīgi tādas datu kopas, ko nevar vēlreiz attiecināt uz personām;
178. aicina Komisiju nodrošināt, ka ikviens, kurš ražo dziļviltojumus vai viltotus videomateriālus, vai citus reālistiskus nepatiesus videomateriālus, skaidri norāda, ka tie nav oriģināli;
179. norāda, ka MI būtībā ir saistīts ar lielu datu apjomu apkopošanu un bieži vien ― ar jaunu datubāzu izveidi, kuras tiek izmantotas, lai izdarītu pieņēmumus par cilvēkiem; uzskata, ka būtu vairāk jāpievēršas potenciālo draudu apzināšanai un atbildes mehānismu izveidošanai, lai mazinātu negatīvo ietekmi;
180. atkārtoti uzsver, ka MI sistēmām nevajadzētu radīt vai pastiprināt neobjektivitāti; uzsver, ka, izstrādājot un izmantojot algoritmus, apsvērumi par neobjektivitāti un godīgumu jāiekļauj visos posmos no izstrādes līdz ieviešanai; uzsver, ka datu kopums un algoritms jānovērtē un regulāri jātestē, lai nodrošinātu lēmumu pieņemšanas pareizību;
6. Pārvaldība
6.1. Koordinēšana Savienības līmenī
181. aicina Komisiju strādāt, lai nodrošinātu spēcīgu ES līderību un novērstu centienu dublēšanos un sadrumstalotību, un nodrošināt saskaņotas valsts līmeņa rīcībpolitikas un apmaiņu ar paraugpraksi, kā plašāk izmantot MI;
182. atzinīgi vērtē dažādās dalībvalstu izstrādātās nacionālās stratēģijas; atzinīgi vērtē Komisijas Koordinēto mākslīgā intelekta plānu, kas publicēts 2018. gada 7. decembrī; aicina šajā sakarā veikt labāku sadarbību starp dalībvalstīm un Komisiju;
183. norāda, ka vairākām dalībvalstīm jau ir savas nacionālās stratēģijas MI jomā, un atzinīgi vērtē to, ka 2018. gada aprīlī visas dalībvalstis parakstīja Deklarāciju par sadarbību MI jomā; atzinīgi vērtē arī gaidāmo Komisijas un dalībvalstu koordinēto MI plānu, bet aicina visas iesaistītās puses censties panākt pēc iespējas augstāku sadarbības līmeni;
184. uzskata, ka ir vajadzīga ciešāka sadarbība starp dalībvalstīm un Komisiju, lai nodrošinātu tādus saskaņotus pārrobežu noteikumus Savienībā, kas veicina sadarbību starp Eiropas nozarēm un ļauj visā Savienībā ieviest MI, kurš atbilstu vajadzīgajam drošuma un drošības līmenim, kā arī Savienības tiesību aktos ietvertajiem ētikas principiem;
185. uzsver, ka saskaņota, uz risku balstīta un progresīva ES datu politikas sistēma palielinātu uzticību un atbalstu MI ieviešanai Eiropā, tādējādi nodrošinot vienotā digitālā tirgus izveides pabeigšanu un palielinot Eiropas uzņēmumu produktivitāti;
186. iesaka cieši koordinēt Komisijas īstenotās pašreizējās un turpmākās ar MI saistītās iniciatīvas un izmēģinājuma projektus, iespējams, saskaņā ar ierosināto uzraudzības mehānismu, lai varētu izmantot sinerģijas efektu un nodrošināt reālas pievienotās vērtības radīšanu, vienlaikus novēršot dārgas dubultās struktūras;
187. aicina Komisiju un dalībvalstis apsvērt iespēju izveidot Eiropas MI un algoritmiskās lēmumu pieņemšanas regulatīvo aģentūru, kuras uzdevumi būtu:
• izstrādāt riska novērtējuma matricu algoritmu tipu un lietotņu domēnu klasificēšanai atbilstoši to iespējai radīt būtiski negatīvu ietekmi uz iedzīvotājiem;
• izmeklēt algoritmisko sistēmu izmantošanu, ja rodas aizdomas par cilvēktiesību pārkāpumiem (piemēram, ja trauksmes cēlējs ir iesniedzis pierādījumus);
• konsultēt citas regulatīvās aģentūras par algoritmiskajām sistēmām, kas ir to kompetencē;
• uzlabot efektivitāti civiltiesiskās atbildības mehānismam kā līdzeklim algoritmisko sistēmu pārskatatbildības regulēšanai, nodrošinot kontaktpunktu iedzīvotājiem, kuri nepārzina juridiskās procedūras;
• veikt revīzijas ļoti ietekmīgu sistēmu algoritmiskās ietekmes novērtējumiem, lai apstiprinātu vai noraidītu ierosinātos algoritmiskās lēmumu pieņemšanas lietojumus ļoti jutīgās un/vai drošuma ziņā svarīgās jomās (piemēram, privātajā veselības aprūpē); privātā sektora lietotņu algoritmiskās ietekmes novērtējums varētu būt ļoti līdzīgs procesam, kas ierosināts publiskajam sektoram, ar to iespējamo atšķirību, ka dažādos informācijas publiskošanas posmus varētu uzskatīt par konfidenciālu saziņu ar regulatīvo aģentūru (saskaņā ar vienošanos par neizpaušanu), lai aizsargātu būtiskus tirdzniecības noslēpumus;
• izmeklēt aizdomas par tiesību pārkāpumiem, ko veikušas algoritmiskas lēmumu pieņemšanas sistēmas, gan atsevišķos lēmumu pieņemšanas gadījumos (piemēram, vienreizēji nepareizi rezultāti), gan statistisku lēmumu pieņemšanas modeļos (piemēram, diskriminējoša neobjektivitāte); izmeklēšanu varētu uzsākt pēc sūdzības iesniegšanas vai pamatojoties uz pierādījumiem, ko iesnieguši trauksmes cēlēji, pētnieciskie žurnālisti vai neatkarīgi pētnieki (tostarp NVO un akadēmisko aprindu pārstāvji);
188. norāda uz Starptautiskās Standartizācijas organizācijas (SSO) darbu MI jomā un mudina dalībvalstis koordinēt savus dalībniekus SSO, lai standartu izstrādē šajā jomā nodrošinātu Eiropas interešu atbilstošu pārstāvniecību;
6.2. Starptautiskā pārvaldība
189. atzinīgi vērtē ESAO MI politikas novērošanas centra izveidi un prasa izvirzīt lielākus mērķus, lai izstrādātu ceļvedi tālākai sadarbībai;
190. uzsver dažādos modeļus, ko izstrādā trešās valstīs, proti, ASV, Ķīnā, Krievijā un Izraēlā, un akcentē gan uz vērtībām balstīto pieeju, ko izmanto Eiropā, gan nepieciešamību sadarboties ar starptautiskajiem partneriem divpusējā un daudzpusējā formātā MI ētiskā aspekta modernizēšanā un pieņemšanā; atzīst, ka šai tehnoloģijai nav robežu un ir vajadzīga plašāka sadarbība, kas aptver vairāk nekā ES dalībvalstis;
191. aicina Komisiju darboties starptautiskā līmenī, lai nodrošinātu maksimālu saskanību starptautisko tirgus dalībnieku starpā un aizstāvētu ES ētikas principus visā pasaulē;
192. uzsver, ka MI ir globālas ietekmes tehnoloģija, kas sniedz kopīgus ieguvumus un visur rada līdzīgas problēmas; norāda, ka ir vajadzīga vispārēja pieeja tāpat kā ekonomikas sistēmas gadījumā un jo īpaši tādas tehnoloģijas gadījumā, kurai ir būtiska ietekme uz tirgiem; uzsver, ka MI ir jāiekļauj pašreizējo iestāžu un organizāciju darba kārtībā, un prasa izvērtēt nepieciešamību pēc papildu forumiem, kas vajadzības gadījumā būtu jāizveido;
°
° °
193. uzdod priekšsēdētājam šo rezolūciju nosūtīt Padomei un Komisijai.
- [1] OV C 252, 18.7.2018, 239. lpp.
- [2] OV C 307, 30.8.2018, 163. lpp.
- [3] Pieņemtie teksti, P8_TA(2018)0341.
- [4] Pieņemtie teksti, P8_TA(2018)0332.
- [5] OV L 252, 8.10.2018., 1. lpp.
- [6] COM(2018)0237.
- [7] Nākotnes un jaunās tehnoloģijas
- [8] OECD Digital Economy Outlook 2017.
- [9] Eirobarometra speciālaptauja 460.
- [10] Eiropas Parlamenta un Padomes 2018. gada 28. jūnija Direktīva (ES) 2018/958 par samērīguma novērtēšanu pirms jaunas profesiju reglamentācijas pieņemšanas, OV L 173, 9.7.2018., 25. lpp.
- [11] Eiropas Parlamenta un Padomes 2013. gada 20. novembra Direktīva 2013/55/ES, ar ko groza Direktīvu 2005/36/EK par profesionālo kvalifikāciju atzīšanu un Regulu (ES) Nr. 1024/2012 par administratīvo sadarbību, izmantojot Iekšējā tirgus informācijas sistēmu (IMI regulu), OV L 354, 28.12.2013., 132. lpp.
- [12] Eiropas Parlamenta un Padomes 2006. gada 12. decembra Direktīva 2006/123/EK par pakalpojumiem iekšējā tirgū, OV L 376, 27.12.2006., 36. lpp.
- [13] Eiropas Parlamenta un Padomes 2000. gada 8. jūnija Direktīva 2000/31/EK par dažiem informācijas sabiedrības pakalpojumu tiesiskiem aspektiem, jo īpaši elektronisko tirdzniecību, iekšējā tirgū (Direktīva par elektronisko tirdzniecību), OV L 178, 17.7.2000., 1. lpp.
- [14] Eiropas Parlamenta un Padomes 2018. gada 14. novembra Regula (ES) 2018/1807 par satvaru nepersondatu brīvai apritei Eiropas Savienībā, OV L 303, 28.11.2018., 59. lpp.
- [15] Padomes 1985. gada 25. jūlija Direktīva 85/374/EEK par dalībvalstu normatīvo un administratīvo aktu tuvināšanu attiecībā uz atbildību par produktiem ar trūkumiem, OV L 210, 7.8.1985., 29. lpp.
- [16] Eiropas Parlamenta un Padomes 2016. gada 27. aprīļa Regula (ES) 2016/679 par fizisku personu aizsardzību attiecībā uz persondatu apstrādi un šādu datu brīvu apriti un ar ko atceļ Direktīvu 95/46/EK, OV L 119, 4.5.2016., 1. lpp.
Iekšējā tirgus un patērētāju aizsardzības komitejAS ATZINUMS (7.12.2018)
Rūpniecības, pētniecības un enerģētikas komitejai
par visaptverošu Eiropas rūpniecības politiku attiecībā uz mākslīgo intelektu un robotiku
(2018/2088(INI) – COM(2018)0237))
Atzinuma sagatavotāja: Dita Charanzová
(*) Iesaistītā komiteja – Reglamenta 54. pants
(Vienkāršota procedūra — Reglamenta 50. panta 2. punkts)
IEROSINĀJUMI
Iekšējā tirgus un patērētāju aizsardzības komiteja aicina par jautājumu atbildīgo Rūpniecības, pētniecības un enerģētikas komiteju rezolūcijas priekšlikumā, ko tā pieņems, iekļaut šādus ierosinājumus:
A. tā kā mākslīgā intelekta (MI) izstrāde strauji attīstās un tā kā MI jau vairākus gadus veido daļu mūsu ikdienas dzīves; tā kā MI un robotika veicina inovāciju, radot jaunus uzņēmējdarbības modeļus un īstenojot nozīmīgus uzdevumus, lai pārveidotu mūsu sabiedrību un digitalizētu mūsu ekonomiku daudzās nozarēs, piemēram, rūpniecībā, veselības aprūpē, celtniecībā un transportā;
B. tā kā Ķīna un Amerikas Savienotās Valstis ir vadošās valstis MI tehnoloģiju jomā un ES pašlaik tajā atpaliek; tā kā ES nebūs iespējams panākt šīs valstis bez saskaņotas pieejas Eiropas līmenī; tā kā kopīga pieeja MI ļautu ES labāk popularizēt tās vērtības visā pasaulē un uzņemties lielāku un efektīvāku lomu pasaules mērogā;
C. tā kā aptuveni ceturto daļu visu rūpniecības robotu un pusi no visiem profesionālo pakalpojumu robotiem pasaulē ražo Eiropas uzņēmumi, un tāpēc ES jau ir nozīmīgi aktīvi, uz kuriem tai vajadzētu balstīt savu Eiropas rūpniecības politiku;
D. tā kā kopēja pieeja veicinās MI tehnoloģiju attīstību sabiedrības labā, vienlaikus risinot arī šo tehnoloģiju radītās problēmas, lai veicinātu inovāciju, uzlabotu produktu un pakalpojumu kvalitāti, uzlabotu patērētāju pieredzi un uzticēšanos MI tehnoloģijām un robotikai un novērstu iekšējā tirgus sadrumstalotību;
E. tā kā MI un robotikas attīstībai ir jāaptver visa sabiedrība; tā kā tomēr 2017. gadā lauku teritorijās lielā mērā nevarēja izmantot MI priekšrocības, jo 8 % mājokļu neietilpst nevienā fiksētā tīklā, un 53 % nav iespēju izmantot „nākamās paaudzes piekļuves” tehnoloģijas (VDSL, Docsis 3.0 kabeli vai FTTP);
F. tā kā tādu pakalpojumu un produktu izstrādei, kurus nodrošina MI, ir nepieciešama savienojamība, datu brīva aprite un datu pieejamība ES; tā kā progresīvo datu ieguves metožu izmantošana pakalpojumos un produktos var palīdzēt uzlabot lēmumu pieņemšanas kvalitāti un līdz ar to arī patērētāju izvēli, kā arī uzlabot uzņēmējdarbības rādītājus;
G. tā kā kiberdrošība ir būtiski svarīga, lai nodrošinātu, ka dati netiek ļaunprātīgi bojāti vai ļaunprātīgi izmantoti MI darbībai tādā veidā, kas kaitē iedzīvotājiem vai uzņēmumiem un kas kaitētu rūpniecībai un mazinātu patērētāju uzticēšanos MI; tā kā izstrādes MI jomā palielina darbību un lēmumu atkarību no šīm sistēmām, kas savukārt rada nepieciešamību pēc augstiem standartiem kibernoturības jomā ES, lai aizsargātu pret kiberdrošības pārkāpumiem un kļūmēm;
H. tā kā tehnoloģiju izstrāde viedajos produktos un pakalpojumos, kas var veicināt uz zināšanām balstītu ekonomiku, kuras pamatā ir pieejamās informācijas kvantitāte, kvalitāte un piekļūstamība, un ir labāk pielāgotas patērētāju vajadzībām;
I. tā kā patērētājiem vajadzētu būt iespējai uzticēties tehnoloģijām, ar kurām tie mijiedarbojas, un tādēļ ir jāreaģē uz ētiskiem apsvērumiem MI un robotikas attīstību; tā kā ES, reaģējot uz šiem apsvērumiem, būtu jābalstās uz vērtībām, kas noteiktas Līguma par Eiropas Savienību 2. pantā un ES Pamattiesību hartā; tā kā Komisijas izveidotā augsta līmeņa ekspertu grupa mākslīgā intelekta jautājumos līdz 2018. gada beigām izstrādās MI ētikas pamatnostādņu projektu,
1. uzsver, ka pirmais un svarīgākais nosacījums, lai ES varētu panākt progresu MI jomā, ir tāds, ka tas darbojas saskaņā ar vienotu sistēmu;
2. uzsver, ka nekoordinētas darbības izpētes un izstrādes jomā ar atšķirīgiem lēmumiem attiecībā uz regulējumu un darbībām starptautiskā līmenī arvien attālina ES no šā mērķa;
3. norāda, ka vairākām dalībvalstīm jau ir savas valsts stratēģijas MI jomā, un atzinīgi vērtē to, ka 2018. gada aprīlī visas dalībvalstis parakstīja Deklarāciju par sadarbību mākslīgā intelekta jomā, kā arī gaidāmo Komisijas un dalībvalstu koordinēto plānu par MI, taču aicina visas iesaistītās puses censties sasniegt augstāko iespējamo sadarbības līmeni;
Sabiedrība, kuru atbalsta mākslīgais intelekts un robotika
4. atgādina, ka Eiropā ir pasaulē vadošā MI pētniecības kopiena, kas veido 32 % no MI pētniecības iestādēm visā pasaulē;
5. uzsver, ka ES pētnieki joprojām pelna ievērojami mazāk nekā viņu kolēģi ASV un Ķīnā un ka tas ir zināms kā galvenais iemesls, kādēļ viņi pamet Eiropu; aicina Komisiju un dalībvalstis koncentrēties uz talantīgu cilvēku piesaistīšanu Eiropas uzņēmumiem un dalībvalstis — radīt stimulējošus nosacījumus;
6. uzsver to, cik nozīmīgi ir mērķtiecīgi pasākumi, lai nodrošinātu, ka mazie un vidējie uzņēmumi un no jauna izveidoti uzņēmumi var pārņemt MI tehnoloģijas un gūt no tām labumu; uzskata, ka jauno ES tiesību aktu par mākslīgā MI tehnoloģisko izstrādi ietekmes novērtējumiem vajadzētu būt obligātiem un ka šādi ietekmes novērtējumi būtu jāapsver arī valsts līmenī;
7. aicina Komisiju, lai veicinātu MI izstrādei labvēlīgu normatīvo vidi un ievērotu labāka regulējuma principu, regulāri pārvērtēt spēkā esošos tiesību aktus nolūkā nodrošināt, ka tie atbilst MI mērķiem, vienlaikus ievērojot ES pamatvērtības, un censties grozīt vai aizstāt tos ar jauniem priekšlikumiem, ja tas tā nav;
8. iesaka turpināt darbu, lai palielinātu savienojamību novārtā atstātās teritorijās, piemēram, lauku apvidos, un novārtā atstātās nozarēs, lai nodrošinātu patiesi iekļaujošu digitālo pāreju;
9. uzsver to, ka MI tehnoloģiju plašāka ieviešana var aizstāt dažas profesijas, jo īpaši tās, kuras, visticamāk, ir jāautomatizē, un izveidot jaunas profesijas; atgādina, ka lielai daļai ES iedzīvotāju, proti, 37 % no darbaspēka, nav digitālo pamatprasmju; uzsver, ka Komisija paredz ievērojamu IKT ekspertu trūkumu, līdz 2020. gadam prognozējot 750 000 brīvu darbvietu rašanos;
10. mudina dalībvalstis modernizēt savas profesionālās apmācības un izglītības sistēmas, lai ņemtu vērā zinātnes attīstību un attīstības tendences MI jomā saskaņā ar Proporcionalitātes testa direktīvu un Profesionālo kvalifikāciju direktīvu, un nākamajās desmitgadēs nodrošināt ES profesionālo pakalpojumu konkurētspēju pasaules mērogā;
Tehnoloģiskā virzība uz mākslīgo intelektu un robotiku
11. uzskata, ka jaunais noteikumu kopums, kas reglamentē nepersonisku datu brīvu apriti Savienībā, ļauj padarīt pieejamus vairāk un vairāk datu uz datiem balstītai inovācijai, tādējādi atvieglojot MVU un no jauna izveidotiem uzņēmumiem izstrādāt pakalpojumus, kurus padara iespējamus MI, un ienākt jaunos tirgos, vienlaikus ļaujot pilsoņiem un uzņēmumiem gūt labumu no labākiem produktiem un pakalpojumiem;
12. atgādina, ka Regulā par nepersonisku datu brīvu plūsmu teikts — ja tehnoloģiju izstrāde padara par iespējamu anonimizētus datus pārvērst personas datos, šādi dati ir jāuzskata par personas datiem un attiecīgi jāpiemēro Regula (ES) 2016/679;
13. atzīst datu apmaiņas potenciālu saistībā ar padziļinātu mācību turpmāko attīstību, jo īpaši attiecībā uz augstvērtīgām datu kopām, ņemot vērā to būtiskos pilsoniskos vai sociālekonomiskos ieguvumus un piemērotību pievienotās vērtības pakalpojumu un lietojumprogrammu radīšanai;
14. uzsver, cik svarīgi ir atvērti nepersoniski dati no publiskiem un privātiem avotiem, un uzskata, ka tiesiskajam regulējumam, tostarp publiskā sektora informācijas atkalizmantošanai, būtu jāatbalsta piekļuve atvērtajiem datiem un sadarbspējai; mudina Komisiju apsvērt drošas un brīvprātīgas vienotas vārtejas izveidi nepersonisku datu apmaiņas veicināšanai ES līmenī, lai nodrošinātu vienkāršotu datu vākšanu;
15. uzsver, ka patērētāju uzticēšanās ir būtiska MI un uz MI balstītu sistēmu izstrādei, kas apstrādā arvien vairāk un vairāk patērētāju datu, padarot tos par kiberuzbrukumu galveno mērķi; uzsver arī to, ka MI ir jādarbojas tā, lai tas nekaitētu pilsoņiem un patērētājiem, un uzskata, ka tādēļ ir jāaizsargā to datu un algoritmu integritāte, uz kuriem tas balstās;
16. uzsver, ka ir svarīgi atzīt, identificēt un uzraudzīt radikālas pārmaiņas MI izstrādē un tā izstrādes vidē; mudina veikt pētījumus par MI, lai koncentrētos arī uz nejauši vai ļaunprātīgi bojāta MI un robotikas konstatēšanu;
Rūpniecības politika
17. uzskata, ka Savienībai vajadzētu būt labāk sagatavotai pret kiberuzbrukumiem; mudina ātri pabeigt kiberdrošības stratēģiju, kurai būtu jāgarantē tādu drošu MI un robotikas sistēmu izstrāde un izvietošana, kas ir izturīgas pret kiberuzbrukumiem, jo īpaši izstrādājot ES sertifikācijas shēmas; uzsver, ka ES Kiberdrošības aģentūrai būtu jāsagatavo kiberdrošības tāda stratēģija MI jomā, kurā būtu novērtēti un risināti apdraudējumi un trūkumi, kas raksturīgi MI;
18. uzsver, ka spēcīgas un konkurētspējīgas MI un robotikas nozares attīstība nevar balstīties tikai uz publisko finansējumu; uzsver, ka ir svarīgi mobilizēt privātos līdzekļus, lai veicinātu inovāciju un izveidotu attīstītu MI un robotikas nozari ES;
19. atgādina — lai gan MI un robotikai jau ir sen iedibinātas rūpnieciskās lietotnes, sasniegumi šajā jomā paplašinās un nodrošina plašas un daudzveidīgas lietotnes visās cilvēka darbībās; uzskata, ka jebkuram tiesiskajam regulējumam ir jāietver elastīgums, kas padara iespējamu inovāciju un jaunu tehnoloģiju brīvu izstrādi, kā arī MI izmantošanu; uzsver, ka regulējumam nevajadzētu kavēt pētniecību un izstrādi privātajā sektorā;
20. aicina Komisiju nodrošināt, lai digitālās inovācijas centri neradītu papildu administrācijas slāņus, bet koncentrētos uz ieguldījumu paātrināšanu projektos, kuri ir pierādījuši savu efektivitāti; aicina Komisiju galveno uzmanību pievērst dotācijām un finansiālajam atbalstam, kas ir paredzēti privātajiem pētniecības un izstrādes projektiem; uzsver, ka MI jomā ir vairāk jāizmanto publiskā un privātā sektora partnerība;
21. uzskata, ka MI būs nozīmīgs ieguvums, lai īstenotu principu „tikai vienreiz”, ļaujot apvienot datubāzes un informāciju no dažādiem avotiem un tādējādi atvieglojot pilsoņu mijiedarbību ar valsts pārvaldes iestādēm;
Mākslīgā intelekta un robotikas tiesiskais regulējums
Mākslīgā intelekta iekšējais tirgus
22. uzskata, ka dalībvalstīm būtu jānodrošina, lai dati tiktu radīti saskaņā ar principu “atvērts integrēti un pēc noklusējuma”, vienlaikus nodrošinot, ka konsekventi tiek aizsargāti publisko interešu mērķi, piemēram, sabiedriskā drošību un personas datu aizsardzību, tostarp gadījumos, kas ir saistīti ar sensitīvu kritiskās infrastruktūras informāciju;
Atbildīga viedo preču izstrāde un brīva aprite
23. uzsver, cik svarīgs ir savstarpējās atzīšanas princips viedo preču, tostarp robotu un robotikas sistēmu, pārrobežu izmantošanā; atgādina, ka vajadzības gadījumā testēšanai, sertifikācijai un produktu drošībai būtu jāgarantē, ka konkrētas preces ir integrēti un pēc noklusējuma drošas; šajā sakarībā norāda, ka ir svarīgi arī strādāt pie MI ētikas aspektiem;
24. uzsver, ka MI tiek izmantots dažādās nozarēs, kurās standartizācija ir ļoti svarīga, piemēram, viedajā ražošanā, attiecībā uz robotiem, autonomajiem vieglajiem automobiļiem, virtuālā realitātē, veselības aprūpē un datu analīzē, un uzskata, ka ES mēroga standartizācija MI jomā sekmēs inovāciju un nodrošinās augstu patērētāju aizsardzības līmeni; atzīst — lai gan pastāv ievērojams skaits standartu tādos jautājumos kā drošums, uzticamība, savietojamība un drošība, ir nepieciešama robotikas un MI kopīgu standartu turpmāka veicināšana un izstrāde, un tai vajadzētu būt daļai no Savienības prioritātēm; aicina Komisiju kopā ar ES standartizācijas iestādēm aktīvi sadarboties ar starptautiskajām standartizācijas organizācijām, lai uzlabotu standartus šajā jomā;
25. mudina Komisiju un dalībvalstis pirms šādu produktu laišanas tirgū veicināt inovatīvu produktu un tehnoloģiju maza mēroga testēšanu;
26. atzīst, ka robotikas un MI tehnoloģijas arvien plašāk izmanto autonomos transportlīdzekļos, piemēram, autonomos automobiļos un civilajos bezpilota lidaparātos; norāda, ka dažas dalībvalstis jau ievieš vai apsver tiesību aktus īpaši šajā jomā, kas varētu sadrumstalot valsts tiesību aktus, tādējādi kavējot autonomu transportlīdzekļu attīstību; tādēļ prasa izstrādāt vienotu Savienības noteikumu kopumu, kas nodrošinātu pareizo līdzsvaru starp lietotāju, uzņēmumu un citu iesaistīto pušu interesēm un potenciālajiem riskiem, vienlaikus izvairoties no pārmērīga regulējuma robotikas un MI sistēmu jomā;
Brīva tādu pakalpojumu sniegšana, kuri balstīti uz MI
27. atgādina, ka notiek nepārtraukta attīstība datu analīzes, izmantošanas un apstrādes tehnoloģiju jomā, piemēram, mašīnmācīšanās, MI un lietu interneta jomā, un ka strauja tehnoloģiju attīstība ļauj radīt jaunus pakalpojumus un jaunas lietotnes, kas balstās uz datu izmantošanu, apkopošanu vai kombinēšanu;
28. atgādina, ka uz daudziem politikas aspektiem, kas ir saistīti ar pakalpojumiem, kuri balstīti uz MI, tostarp patērētāju aizsardzības noteikumiem un ētikas un atbildības politiku, attiecas spēkā esošais pakalpojumu tiesiskais regulējums, proti, Pakalpojumu direktīva, Profesionālo kvalifikāciju direktīva un E–tirdzniecības direktīva;
29. uzsver, ka galīgā atbildība par lēmumu pieņemšanu vienmēr ir jāuzņemas cilvēkiem, jo īpaši attiecībā uz profesionāliem pakalpojumiem, piemēram, tādiem, kurus sniedz medicīnas, juridisko un grāmatvedības profesiju pārstāvji; uzskata, ka ir jāpārdomā, vai ir nepieciešama kvalificēta profesionāla uzraudzība, lai aizsargātu leģitīmus sabiedrības interešu mērķus un nodrošinātu augstas kvalitātes pakalpojumus;
30. atzīst, ka ir svarīgi uzlabot digitālos pakalpojumus, piemēram, virtuālos palīgus, autonomas programmas šablonveida atbilžu sniegšanai vai virtuālus aģentus, radot līdz šim nepieredzētu darbības efektivitāti un vienlaikus pienācīgi atzīstot vajadzību attīstīt uz cilvēku orientētu un tirgu prasībām atbilstošu MI, lai izstrādātu labākus un uzticamākus lēmumus nolūkā noteikt robežas MI un robotikas autonomijai;
Patērētāju aizsardzība un plašāku iespēju paredzēšana patērētājiem
31. uzskata, ka attiecībā uz MI tehnoloģijām, kas ir izstrādātas gan ražošanai, gan individuālai lietošanai, tirgus uzraudzības iestādēm būtu jāveic produktu drošības pārbaudes un attiecībā uz tām jāpiemēro patērētāju aizsardzības noteikumi, vajadzības gadījumā nodrošinot minimālos drošības standartus un novēršot nelaimes gadījumu risku, ko rada mijiedarbība ar cilvēkiem vai darbs saskarē ar cilvēkiem; uzskata, ka jautājumi par ētiku un datu aizsardzības, tostarp trešo pušu un personas datu, civiltiesiskās atbildības un kiberdrošības jautājumi būtu jārisina jebkurā politikas jomā, kas attiecas uz MI;
32. atgādina, ka algoritmi ir MI un robotikas stūrakmeņi; aicina dalībvalstis nodrošināt, ka saistībā ar MI tiek izmantoti vienīgi augstas kvalitātes dati un ka tie jo īpaši ir aktuāli, precīzi un uzticami, lai panāktu patērētāju uzticēšanos un akceptu; šajā sakarībā atgādina, cik svarīgi ir nodrošināt lēmumu pieņemšanas procesu attiecībā uz MI tehnoloģijām, kā arī objektīvus algoritmus, vienlaikus ievērojot ES tiesību aktus, jo īpaši attiecībā uz komercnoslēpumiem, un izveidot pārskatīšanas struktūras, lai novērstu iespējamās kļūdas MI pieņemtajos lēmumos;
33. uzsver, cik svarīgi ir, lai MI būtu ērti lietojams, kas veicinātu patērētāju uzticēšanos; uzskata, ka gadījumos, kad galīgos un pastāvīgos lēmumus pieņem MI, nevis cilvēki, patērētāji par to būtu jāinformē un viņiem vajadzētu būt iespējai pieprasīt, lai cilvēciska būtne tos pārskata, un saņemt kompensāciju; uzsver, ka, mijiedarbības gadījumā ar automatizētu sistēmu, lietotāji būtu jāinformē par to, kā viņi varētu kontaktēties ar cilvēcisku būtni un kā nodrošināt, ka sistēmas lēmumus var pārbaudīt un labot;
34. ņem vērā Komisijas dienestu 2018. gada 25. aprīļa darba dokumentu par atbildību saistībā ar jaunajām digitālajām tehnoloģijām, kas strauji attīstās (SWD(2018)0137); norāda uz savu secinājumu — lai gan pašreiz spēkā esošā atbildības sistēma joprojām ir stabila un darbojas, tā būtu jāpārskata ekspertu grupai atbildības jautājumos, ņemot vērā jaunās MI tehnoloģijas nolūkā nodrošināt, ka tās atbilst paredzētajam mērķim un ietver patērētāju, novatoru un ES darbojošos uzņēmumu redzējumu;
35. uzsver, ka ir nepieciešams izglītot pilsoņus un jo īpaši jauniešus, lai izprastu, kā MI strādā; aicina nodrošināt plašākas iespējas ES pilsoņiem un patērētājiem, padarot MI pieejamāku pilsoņiem, patērētājiem un pilsoniskajai sabiedrībai; uzskata, ka to var panākt, piedāvājot pastiprinātu un plašu izglītību MI labākai izpratnei.
INFORMĀCIJA PAR PIEŅEMŠANUATZINUMU SNIEDZOŠAJĀ KOMITEJĀ
Vienkāršota procedūra - lēmuma datums |
16.5.2018 |
||||
Pieņemšanas datums |
4.12.2018 |
|
|
|
|
JURIDISKĀS KOMITEJAS ATZINUMS ()
Eiropas Parlaments 2014-2019 |
|
|
Juridiskā komiteja
priekšsēdētājs
12.12.2018
Jerzy Buzek
Rūpniecības, pētniecības un enerģētikas komitejas
priekšsēdētājam
BRISELĒ
Temats: Atzinums par visaptverošu Eiropas rūpniecības politiku attiecībā uz mākslīgo intelektu un robotiku (2018/2088(INI))
Godātais priekšsēdētāj!
Saistībā ar minēto procedūru Juridiskajai komitejai, kuras priekšsēdētājs esmu, tika lūgts sniegt atzinumu Jūsu vadītajai komitejai. Mady Delvaux tika iecelta par referenti atzinuma sagatavošanai. Komiteja 2018. gada 20. novembra sanāksmē nolēma atzinumu nosūtīt vēstules veidā.
Saskaņā ar vienošanos, kas panākta par asociācijas izveidi saskaņā ar Reglamenta 54. pantu, Juridiskajai komitejai ir ekskluzīva kompetence jautājumos, kas saistīti ar atbildību un intelektuālā īpašuma tiesībām, un tai ir kopīga kompetence jautājumos, kas saistīti ar tehnoloģijās iegultajām vērtībām (“ētiski pēc būtības”).
Juridiskā komiteja izskatīja šo jautājumu 2018. gada 6. decembra sanāksmē, un pēc viedokļu apmaiņas starp koordinatoriem, izmantojot rakstisko procedūru, 2018. gada 10. decembra sanāksmē tika pieņemts pievienotais atzinums. Šajā sanāksmē[1] tā nolēma aicināt atbildīgo Rūpniecības, pētniecības un enerģētikas komiteju rezolūcijas priekšlikumā iekļaut turpmāk minētos ierosinājumus.
Ar cieņu
Pavel Svoboda
IEROSINĀJUMI
A. tā kā 2017. gada 16. februāra rezolūcijā ar ieteikumiem Komisijai par Civiltiesību noteikumiem attiecībā uz robotiku (2015/2013 (INL)) Parlaments aicināja Komisiju ierosināt saskaņotu tiesisko regulējumu robotikas, tostarp autonomu sistēmu un viedu autonomu robotu, izstrādei,
1. mudina pievērst lielu uzmanību produktu drošumam, lai garantētu patērētāju aizsardzību un uzticēšanos MI un robotikai;
2. uzsver, ka, izstrādājot MI, ir svarīgi gādāt par cilvēka vajadzībām atbilstošu dizainu, lai nodrošinātu tādu lēmumu pieņemšanas procesa atbildību un pārskatatbildību, kurus pieņēmušas mašīnas;
3. uzsver, ka politikas satvars jāveido tā, lai veicinātu visu veidu MI izstrādi un ne tikai mašīnu dziļās mācīšanās sistēmas, kurām ir nepieciešami milzīgi dati;
4. uzsver, ka datu izmantošana veselības nozarē ir rūpīgi un ētiski jāuzrauga un nekādā veidā nedrīkst kavēt piekļuvi sociālajai aizsardzībai vai apdrošināšanai;
5. uzskata — ja MI izmanto implantētās medicīnas ierīcēs, attiecīgajai personai vajadzētu būt tiesībām pārbaudīt un pārveidot ierīcē izmantoto avota kodu;
6. atgādina, ka ir svarīgi garantēt kvalitatīvu datu pieejamību, lai nodrošinātu īstu konkurētspēju mākslīgā intelekta jomā, un aicina valsts iestādes paredzēt veidus datu iegūšanai, apmaiņai un pārvaldībai, padarot tos par kopēju labumu atvērto datu veidā;
7. atzinīgi vērtē Komisijas iniciatīvu izveidot ekspertu grupu atbildības un jauno tehnoloģiju jautājumos, lai Eiropas Savienībai nodrošinātu zināšanas par to, vai Produktatbildības direktīva ir piemērojama tradicionālajiem produktiem, jaunām tehnoloģijām un jaunām sabiedrības problēmām (Direktīvas par produktu atbildību izveide), un palīdzētu ES izstrādāt principus, kurus var izmantot kā vadlīnijas ES un valstu līmenī piemērojamo tiesību aktu iespējamai pielāgošanai jaunajām tehnoloģijām (jauno tehnoloģiju izveide);
8. tomēr pauž nožēlu par to, ka šā sasaukuma laikā netika iesniegts neviens tiesību akta priekšlikums, tādējādi kavējot atbildības noteikumu aktualizēšanu ES līmenī un apdraudot ES juridisko noteiktību šajā jomā gan no tirgotāju, gan patērētāju viedokļa;
9. norāda uz Starptautiskās Standartizācijas organizācijas (SSO) darbu MI jomā un mudina dalībvalstis saskaņot savus dalībniekus SSO, lai pēc iespējas labāk aizsargātu Eiropas vērtības un intereses standartu izstrādē;
10. atgādina par iepriekš minēto 2018. gada 16. februāra rezolūciju, kurā tas norādīja, ka nav tādu tiesību normu, kas būtu īpaši piemērojamas robotikai, bet ka spēkā esošie juridiskie režīmi un doktrīnas var viegli tikt piemēroti robotikai, lai gan daži aspekti, šķiet, prasa īpašu uzmanību; atkārtoti izsaka šajā rezolūcijā pausto aicinājumu Komisijai atbalstīt horizontālu un tehnoloģiski neitrālu pieeju intelektuālajam īpašumam, kas piemērojama dažādās nozarēs, kurās var nodarbināt robotus;
11. šajā sakarībā atzinīgi vērtē Komisijas paziņojumu iestādēm „Norādījumi par dažiem aspektiem Eiropas Parlamenta un Padomes Direktīvā 2004/48/EK par intelektuālā īpašuma tiesību piemērošanu”, bet uzsver nepieciešamību uzraudzīt intelektuālā īpašuma tiesību noteikumu atbilstību un efektivitāti, lai pārvaldītu MI izstrādi; šajā sakarībā uzsver to, cik liela nozīme ir atbilstības pārbaudēm;
12. atzinīgi vērtē to, ka Komisija ir izveidojusi augsta līmeņa ekspertu grupu mākslīgā intelekta jautājumos, kuras sastāvā ir pārstāvji no akadēmiskajām aprindām, pilsoniskās sabiedrības un nozares, lai sagatavotu MI ētikas pamatnostādnes par tādiem jautājumiem kā godīgums, drošība, pārredzamība, darba nākotne, demokrātija un plašākā mērā arī ietekme uz Pamattiesību hartas piemērošanu, tostarp privātuma un personas datu aizsardzību, cieņu, patērētāju aizsardzību un diskriminācijas nepieļaušanu;
13. gaida kopīgo sanāksmi ar dalībvalstīm, kas paredzēta 2019. gada janvārī pēc ētikas pamatnostādņu projekta publicēšanas 2018. gada beigās, kā tas ir minēts Komisijas 2018. gada 25. aprīļa paziņojumā;
14. uzsver, kāda nozīme varētu būt Parlamentam ar STOA darba starpniecību, lai, izstrādājot šīs pamatnostādnes, ņemtu vērā pilsoņu apsvērumus;
15. ņem vērā komisāra vietnieka Andrus Ansip 2018. gada decembrī iesniegto koordinēto rīcības plānu par MI;
16. uzsver, ka MI un robotikas izstrādē pašlaik vadošās ir valstis, kas nav ES dalībvalstis, un tādēļ uzsver, ka ir svarīgi izstrādāt kopēju Eiropas pieeju, lai aizsargātu ES vietu mākslīgā intelekta izstrādē;
17. šajā izpratnē atzinīgi vērtē ES MI alianses izveidi, lai pilnībā mobilizētu dažādu dalībnieku vienības, tostarp uzņēmumus, patērētāju organizācijas, arodbiedrības un citus pilsoniskās sabiedrības struktūru pārstāvjus; norāda, ka šīs plašās ieinteresēto personu platformas mērķis ir papildināt un atbalstīt augsta līmeņa ekspertu grupas MI jautājumos darbu, jo īpaši MI ētikas pamatnostādņu projekta sagatavošanā, un nodrošināt ES konkurētspēju MI jomā, kas strauji attīstās.
- [1] Galīgajā balsošanā piedalījās: Pavel Svoboda (priekšsēdētājs), Jean-Marie Cavada, (priekšsēdētāja vietnieks), Mady Delvaux (priešsēdētāja vietniece un atzinuma sagatavotāja), Joëlle Bergeron, Kostas Chrysogonos, Sergio Gaetano Cofferati, Mary Honeyball, Sajjad Karim, Sylvia-Yvonne Kaufmann, António Marinho e Pinto, Julia Reda, Evelyn Regner, Axel Voss, Tiemo Wölken, Francis Zammit Dimech, Tadeusz Zwiefka, Kosma Złotowski, Luis de Grandes Pascual.
Pilsoņu brīvību, tieslietu un iekšlietu komitejAS ATZINUMS (11.12.2018)
Rūpniecības, pētniecības un enerģētikas komitejai
par visaptverošu Eiropas rūpniecības politiku attiecībā uz mākslīgo intelektu un robotiku
(2018/2088(INI))
Referents (*): Michał Boni
(*) Iesaistītā komiteja – Reglamenta 54. pants
IEROSINĀJUMI
Pilsoņu brīvību, tieslietu un iekšlietu komiteja aicina par jautājumu atbildīgo Rūpniecības, pētniecības un enerģētikas komiteju rezolūcijas priekšlikumā iekļaut šādus ierosinājumus:
– ņemot vērā Komisijas paziņojumu Eiropas Parlamentam, Eiropadomei, Padomei, Eiropas Ekonomikas un sociālo lietu komitejai un Reģionu komitejai “Mākslīgais intelekts Eiropai” (COM(2018)0237),
– ņemot vērā tā 2017. gada 16. februāra rezolūciju ar ieteikumiem Komisijai par Civiltiesību noteikumiem par robotiku[1],
A. tā kā mākslīgais intelekts (MI) ir viena no 21. gadsimta stratēģiskajām tehnoloģijām gan pasaulē, gan Eiropā, radot pozitīvas pārmaiņas Eiropas ekonomikā un veicinot inovāciju, produktivitāti, konkurētspēju un labklājību;
B. tā kā Eiropas MI pamatprogramma ir jāizstrādā, pilnībā ievērojot pamattiesības, kas noteiktas Eiropas Savienības Pamattiesību hartā, un jo īpaši datu aizsardzības, privātuma un drošības principus;
C. tā kā uz cilvēku vērsts MI un mašīnmācīšanās sniedz labumu Eiropas sabiedrībai un var palīdzēt risināt dažas no sabiedrības visaktuālākajām problēmām, sniedzot taustāmus ieguvumus iedzīvotājiem,
1. aicina Komisiju un citas kompetentās iestādes cieši sadarboties ar dažādas disciplīnas pārstāvošiem pētniekiem, lai identificētu, atbalstītu un izmantotu MI inovatīvu pielietojumu potenciālo pozitīvo ietekmi, izmeklētu, novērstu un mazinātu ļaunprātīgu vai nolaidīgu MI pielietojumu ietekmi un izstrādātu instrumentus, politiku un normas, kas būtu piemērotas MI pielietojumu ētiskas pārvaldības nodrošināšanai; uzsver vajadzību attīstīt zināšanu apmaiņas programmas, tostarp pārrobežu programmas, un veicināt kopīgas stratēģijas izstrādi starp pilsoniskās sabiedrības organizācijām; norāda, ka būtu jāapzina paraugprakse pētniecības jomās ar labāk izstrādātām metodēm divējāda lietojuma problēmu risināšanai, piemēram, attiecībā uz drošību un privātumu, un ka tās būtu jāpiemēro MI jomā;
2. uzsver, ka ļaunprātīga vai nolaidīga MI izmantošana varētu apdraudēt digitālo drošību un fizisko, kā arī sabiedrisko drošību, jo to varētu izmantot, lai īstenotu vērienīgus, mērķtiecīgus un ļoti efektīvus uzbrukumus informācijas sabiedrības pakalpojumiem un savienotajām iekārtām, kā arī dezinformācijas kampaņas un kopumā mazinātu indivīdu tiesības uz pašnoteikšanos; uzsver, ka ļaunprātīga vai nolaidīga mākslīgā intelekta izmantošana var apdraudēt arī demokrātiju un pamattiesības;
3. uzsver, ka tiesības uz privātās dzīves neaizskaramību un personas datu aizsardzību, kā noteikts Pamattiesību hartas 7. un 8. pantā un Līguma par Eiropas Savienības darbību (LESD) 16. pantā, attiecas uz visām robotikas jomām un visām pārējām jomām, kurās var izmantot mākslīgo intelektu, tostarp attiecas uz lielo datu analītiku, mašīnmācīšanos un lietu internetu, un ka mākslīgā intelekta sistēmu jomā ir pilnībā jāievēro Savienības tiesiskais regulējums attiecībā uz datu aizsardzību; atkārtoti pauž atbalstu Komisijas “Finanšu tehnoloģijas rīcības plānam konkurētspējīgākam un inovatīvākam Eiropas finanšu sektoram”, kurā uzsvērta regulējuma nozīme tehnoloģisko inovāciju veicināšanai un labākai izpratnei par inovatīviem uzņēmējdarbības modeļiem un tirgus attīstību, ļaujot regulatoriem uzraudzīt uzņēmumus saskaņā ar Savienības tiesisko regulējumu;
4. aicina Komisiju nodrošināt, lai visi turpmākie ES reglamentējošie noteikumi attiecībā uz MI garantē saziņas privātumu un konfidencialitāti, personas datu aizsardzību, tostarp likumības, taisnīguma un pārredzamības principus, integrētu datu aizsardzību un datu aizsardzību pēc noklusējuma, mērķa ierobežojumu, glabāšanas ierobežojumu, precizitāti un datu minimizēšanu, pilnībā ievērojot Savienības tiesību aktus datu aizsardzības jomā, kā arī drošību, personīgo drošumu un citas pamattiesības, tostarp tiesības uz vārda brīvību un informāciju; uzskata, ka Komisijai ir regulāri jāizvērtē visi turpmākie reglamentējošie noteikumi, ņemot vērā jauno tehnoloģiju attīstību;
5. uzsver, ka Eiropas standartiem mākslīgā intelekta jomā jābalstās uz tādiem principiem kā digitālā ētika, cilvēka cieņa, pamattiesību ievērošana, datu aizsardzība un drošība, par mērķi izvirzot šo principu integrēšanu izstrādē un tādējādi veicinot lietotāju uzticēšanos; uzsver, ka ir svarīgi izmantot ES potenciālu, lai izveidotu spēcīgu mākslīgā intelekta sistēmu infrastruktūru, kuras pamatā ir augsti datu aizsardzības standarti un cieņa pret cilvēkiem; uzsver vajadzību sistemātiski investēt nepieciešamo zināšanu attīstīšanā, jo īpaši pētnieku apmācībā un zināšanu apmaiņas veicināšanā starp dažādām disciplīnām — tostarp lietišķo ētiku —, kas specializējas MI tehnoloģijā, robotikā un saistītajās jomās;
6. aicina Komisiju ieņemt stingru nostāju pret autonomu ieroču sistēmu, ko darbina MI, izstrādi un izmantošanu jebkurā ES sistēmā;
7. atzinīgi vērtē Komisijas iniciatīvu izveidot Eiropas mākslīgā intelekta aliansi, kuras uzdevums būtu izstrādāt visaptverošas mākslīgā intelekta ētikas vadlīnijas un politikas ieteikumus; uzsver, ka ir svarīgi aktīvi piedalīties globālās aliansēs un MI forumos, lai nodrošinātu zināšanu apmaiņu un visaptverošu izpratni par bažām saistībā ar datu privātumu, pārredzamību un drošību MI sistēmu izstrādē un ieviešanā; šajā sakarā atzinīgi vērtē darbu, ko veic mākslīgā intelekta augsta līmeņa ekspertu grupa (MI ALEG), kura īsteno MI alianses darba vadību; aicina Komisiju nodrošināt datu aizsardzības iestāžu līdzdalību šajā augsta līmeņa grupā, pabeigt darbu atklātā un pārredzamā veidā un publicēt vadlīnijas; turklāt aicina Komisiju turpināt darbu, lai MI jomā izstrādātu ES mēroga pieeju, kas būtu vērsta uz cilvēku un ko pārvaldītu cilvēki, un aktīvi veicināt augstus ES standartus MI jomā starptautiskā līmenī;
8. uzsver, ka ikvienas mākslīgā intelekta sistēmas izstrādē ir jāievēro pārredzamības un algoritmiskas pārskatatbildības princips, kas cilvēkiem ļautu izprast mākslīgā intelekta darbības; norāda — lai palielinātu uzticēšanos mākslīgajam intelektam un nodrošinātu progresu šajā jomā, lietotājiem ir jābūt informētiem par to, kā viņu dati, kā arī citi dati un no viņu datiem izrietošie dati tiek izmantoti, un ir jāzina, kad tie sazinās vai mijiedarbojas ar kādu no mākslīgā intelekta sistēmām vai ar cilvēkiem, kuri izmanto mākslīgā intelekta sistēmas atbalstu; uzskata, ka tas veicinās lietotāju labāku savstarpējo izpratni un uzticēšanos; uzsver, ka lēmumu saprotamībai jābūt ES standartam saskaņā ar VDAR 13., 14. un 15. pantu; atgādina, ka Vispārīgā datu aizsardzības regula jau paredz tiesības tikt informētam par datu apstrādes loģisko sistēmu; uzsver, ka saskaņā ar VDAR 22. pantu personām ir tiesības pieprasīt cilvēka iejaukšanos gadījumos, kad uz automatizētu apstrādi balstīts lēmums viņus būtiski ietekmē;
9. uzsver, ka Komisijai, Eiropas Datu aizsardzības kolēģijai, dalībvalstu datu aizsardzības iestādēm un citām neatkarīgām uzraudzības iestādēm turpmāk vajadzētu uzņemties būtisku lomu veicināt pārredzamību un pienācīgu procesu un sekmēt juridisko noteiktību kopumā un jo īpaši attiecībā uz konkrētiem standartiem, kas sargā ar datu apstrādes un analītikas izmantošanu saistītās pamattiesības un garantijas; prasa ciešāku sadarbību starp iestādēm, kuru uzdevums ir pārraudzīt vai reglamentēt rīcību digitālajā vidē; prasa piešķirt šīm iestādēm atbilstošu finansējumu un personālu;
10. uzsver, ka ir svarīgi novērst izstrādātāja neobjektivitāti un ka tāpēc visās IT nozares jomās ir vajadzīgs daudzveidīgs darbaspēks, kā arī aizsargmehānismi, lai neļautu ar dzimumu un vecumu saistītu aizspriedumu iebūvēšanu MI sistēmās;
11. uzsver, ka ir svarīgi izveidot tiesisko regulējumu algoritmu un to ietekmes kontrolei, tostarp paredzot iespēju iesaistīt neatkarīgus algoritmu revidentus (vai pat programmatūras uzraudzītājus vai regulatoru, kas var izmeklēt MI automatizētus lēmumus);
12. uzsver, cik svarīga ir algoritmu izstrādē un ieviešanā izmantoto datu kvalitāte un precizitāte, kā arī šo datu reprezentativitāte, jo to standarts balstās uz apmācīšanā izmantotajiem datiem; norāda, ka pat augstas kvalitātes apmācības dati var novest pie pastāvošās diskriminācijas un netaisnības turpināšanas, ja tos neizmanto rūpīgi un apzināti; norāda, ka nekvalitatīvu, novecojušu, nepilnīgu vai nepareizu datu izmantošana dažādos datu apstrādes posmos var izraisīt vājas prognozes un novērtējumus un attiecīgi neobjektivitāti, kas galu galā var novest pie personu pamattiesību pārkāpumiem, pilnīgi nepareiziem secinājumiem vai kļūdainiem rezultātiem; tāpēc uzskata, ka lielo datu laikmetā ir svarīgi nodrošināt, ka algoritmi tiek apmācīti par reprezentatīviem augstas kvalitātes datu paraugiem, lai panāktu statistisku paritāti; uzsver, ka pat tad, ja tiek izmantoti precīzi un kvalitatīvi dati, uz MI balstīta prognozējoša analīze var sniegt tikai statistisku varbūtību; atgādina, ka saskaņā ar VDAR, veicot personas datu turpmāku apstrādi statistikas nolūkos, tostarp mākslīgā intelekta apmācību, var apkopot vienīgi tādas datu kopas, ko nevar vēlreiz attiecināt uz personām;
13. aicina Komisiju, dalībvalstis un datu aizsardzības iestādes apzināt un veikt visus iespējamos pasākumus, lai nepieļautu vai minimizētu algoritmisko diskrimināciju un neobjektivitāti un izstrādātu spēcīgu kopīgu ētikas satvaru pārredzamam procesam personas datu apstrādē un automatizētai lēmumu pieņemšanai, kas var dot pamatu datu izmantošanai un Savienības tiesību aktu piemērošanai;
14. uzsver, ka MI pētniecība un citas ar to saistītas darbības būtu jāveic saskaņā ar piesardzības principu un pamattiesībām, vienlaikus veicinot progresu sabiedrības un vides labā; uzsver, ka ikvienam, kas iesaistīts MI izstrādē, īstenošanā, izplatīšanā un izmantošanā, būtu jāņem vērā un jārespektē cilvēka cieņa, kā arī gan fiziskās, gan psiholoģiskās pašnoteikšanās tiesības un labklājība — attiecībā uz atsevišķu cilvēku un sabiedrību kopumā, jāparedz iespējamā ietekme uz drošumu un jāveic pienācīgi piesardzības pasākumi, kuri ir samērīgi ar aizsardzības līmeni, tostarp nekavējoties atklājot faktorus, kas varētu apdraudēt sabiedrību vai vidi; uzsver, ka ir vajadzīga koordinēta pieeja, lai nodrošinātu, ka MI sistēmām un to sastāvdaļām bieži tiek veikti uz risku balstīti novērtējumi; uzsver, ka ir svarīgi izstrādāt un īstenot visaptverošu revīzijas noteikumu un vadlīniju kopumu attiecībā uz MI sistēmu izstrādi un ieviešanu, kā arī drošības un iezīmēšanas mehānismus, kuru mērķis ir mazināt pārkāpumu risku;
15. uzsver, ka MI un robotikas vispārīgajām stratēģijām būtu jāpiemēro šādi principi:
a) roboti un mākslīgais intelekts ir daudzfunkcionāli rīki. Robotus un mākslīgo intelektu nedrīkst izstrādāt tā, ka to vienīgais vai primārais mērķis ir nogalināt vai nodarīt kaitējumu cilvēkiem. Ir jāgarantē personas tiesības un pamatbrīvības, jo īpaši cilvēka neaizskaramība (fiziskā un garīgā), cilvēka cieņa un identitāte. Tiek uzsvērts, ka cilvēks ir primārs salīdzinājumā ar tikai zinātnes vai sabiedrības interesēm;
b) cilvēki ir atbildīgie aģenti. Likumdevējiem būtu jānodrošina, lai jaunās tehnoloģijas atbilst spēkā esošajiem tiesību aktiem un pamattiesībām;
c) roboti un mākslīgais intelekts kā produkti būtu jāizstrādā tā, lai tie būtu nekaitīgi, droši un atbilstu paredzētajam mērķim — tāpat kā citi produkti;
d) roboti un mākslīgais intelekts ir ražoti artefakti. Tie nedrīkstētu būt izstrādāti maldinošā veidā, lai izmantotu neaizsargātus lietotājus; tā vietā to mašīnas raksturam vajadzētu būt pārredzamam;
e) ir jānosaka par robotu vai mākslīgā intelekta sistēmu juridiski atbildīgā persona. Rupjas nolaidības gadījumā saistībā ar drošumu un drošību ražotāji būtu jāsauc pie atbildības pat tad, ja lietošanas līgumos ir iekļautas klauzulas par atbrīvošanu no atbildības;
16. uzsver nepieciešamību MI izstrādes procesā iesaistīt sabiedrību; tāpēc aicina Komisiju visus sabiedrības finansētus vai līdzfinansētus algoritmus, rīkus un tehnoloģijas publicēt ar atklātu pirmkodu;
17. uzsver, ka tad, ja riski rodas kā nenovēršams un neatņemams MI pētniecības elements, ir jāizstrādā un jāievēro noturīgi riska novērtēšanas un pārvaldības protokoli, ņemot vērā, ka kaitējuma risks nedrīkst būt lielāks par to, kas rodas parastajā dzīvē (t. i., cilvēki nedrīkst būt pakļauti riskiem, kas ir lielāki vai kas papildina riskus, kuriem tie ir pakļauti savā ikdienas dzīvē).
INFORMĀCIJA PAR PIEŅEMŠANU ATZINUMU SNIEDZOŠAJĀ KOMITEJĀ
Pieņemšanas datums |
10.12.2018 |
|
|
|
|
Galīgais balsojums |
+: –: 0: |
30 0 1 |
|||
Komitejas locekļi, kas bija klāt galīgajā balsošanā |
Martina Anderson, Monika Beňová, Michał Boni, Cornelia Ernst, Romeo Franz, Nathalie Griesbeck, Jussi Halla-aho, Monika Hohlmeier, Sophia in ‘t Veld, Dietmar Köster, Juan Fernando López Aguilar, Roberta Metsola, Claude Moraes, Péter Niedermüller, Ivari Padar, Giancarlo Scottà, Birgit Sippel, Csaba Sógor, Helga Stevens, Bodil Valero, Harald Vilimsky, Josef Weidenholzer |
||||
Aizstājēji, kas bija klāt galīgajā balsošanā |
Marek Jurek, Jean Lambert, Angelika Mlinar, Maite Pagazaurtundúa Ruiz, Barbara Spinelli, Axel Voss |
||||
Aizstājēji (200. panta 2. punkts), kas bija klāt galīgajā balsošanā |
Lucy Anderson, Margrete Auken, Anthea McIntyre |
||||
ATBILDĪGĀS KOMITEJAS GALĪGAIS BALSOJUMS PĒC SARAKSTA
30 |
+ |
|
ALDE |
Nathalie Griesbeck, Sophia in ‘t Veld, Angelika Mlinar, Maite Pagazaurtundúa Ruiz |
|
ECR |
Jussi Halla-aho, Marek Jurek, Anthea McIntyre, Helga Stevens |
|
ENF |
Giancarlo Scottà |
|
GUE/NGL |
Martina Anderson, Cornelia Ernst, Barbara Spinelli |
|
PPE |
Michał Boni, Monika Hohlmeier, Roberta Metsola, Csaba Sógor, Axel Voss |
|
S&D |
Lucy Anderson, Monika Beňová, Dietmar Köster, Juan Fernando López Aguilar, Claude Moraes, Péter Niedermüller, Ivari Padar, Birgit Sippel, Josef Weidenholzer |
|
VERTS/ALE |
Margrete Auken, Romeo Franz, Jean Lambert, Bodil Valero |
|
0 |
- |
|
|
|
|
1 |
0 |
|
ENF |
Harald Vilimsky |
|
Izmantoto apzīmējumu skaidrojums:
+ : par
- : pret
0 : atturas
- [1] Pieņemtie teksti, P8_TA(2017)0051.
Vides, sabiedrības veselības un pārtikas nekaitīguma komitejAS ATZINUMS (21.11.2018)
Rūpniecības, pētniecības un enerģētikas komitejai
par visaptverošu Eiropas rūpniecības politiku attiecībā uz mākslīgo intelektu un robotiku
(2018/2088(INI))
Atzinuma sagatavotājs: Bolesław G. Piecha
IEROSINĀJUMI
Vides, sabiedrības veselības un pārtikas nekaitīguma komiteja aicina par jautājumu atbildīgo Rūpniecības, pētniecības un enerģētikas komiteju rezolūcijas priekšlikumā, ko tā pieņems, iekļaut šādus ierosinājumus:
A. tā kā mākslīgais intelekts (AI) kļūs par tehnoloģisku, ekonomisku, sociālu un psiholoģisku revolūciju ar acīmredzamām ētiskām sekām ne tikai Eiropā, bet arī visā pasaulē;
B. tā kā robotikas arvien lielākā integrācija cilvēku sistēmās prasa stingras politiskas norādes par to, kā maksimizēt ieguvumus un minimizēt sabiedrības riskus un nodrošināt drošu un taisnīgu mākslīgā intelekta attīstību;
C. tā kā mākslīgā intelekta gatavība tirgum ir gan ētiski, gan morāli lielākā revolūcija kopš tvaika dzinēja un datora, kas sabiedrībai ir padziļināti jāizdiskutē;
D. tā kā rūpniecības un pakalpojumu sfērā, kas saistīta ar augstajām tehnoloģijām, mākslīgajam intelektam ir izšķiroša nozīme, lai padarītu Eiropu par “jaunuzņēmumu kontinentu”, izmantojot jaunākās tehnoloģijas izaugsmes radīšanai Eiropā, jo īpaši tādās jomās kā veselības aprūpes tehnoloģijas, veselības pakalpojumi un programmas, zāļu atklāšana, robotika un robotizētas operācijas, hronisko slimību ārstēšana un medicīnas attēlveidošana un uzskaite, kā arī ilgtspējīgas vides nodrošināšana un nekaitīgas pārtikas ražošana; tā kā Eiropa pašlaik atpaliek no Ziemeļamerikas un Āzijas mākslīgā intelekta pētniecības un patentu jomā;
E. tā kā mākslīgā intelekta tehnoloģiju attīstība var palīdzēt uzlabot dzīvi cilvēkiem ar hroniskām slimībām un invaliditāti un risināt tādas sociālās problēmas kā sabiedrības novecošana, veselības aprūpes sniegšanā uzlabojot tehnoloģiju precizitāti un efektivitāti;
F. tā kā ir plašs klāsts ar iespējamiem mākslīgā intelekta un robotikas lietojumiem medicīniskajā aprūpē, piemēram: medicīnisko ierakstu un datu pārvaldīšana, rutīnas pienākumu veikšana (testu analīzes, rentgena uzņēmumi, datortomogrāfija, datu ievadīšana), ārstēšanas plāna sagatavošana, digitālas konsultācijas (piemēram, medicīniskās konsultācijas, kas pamatojas uz personas medicīnisko vēsturi un vispārīgām medicīnas zināšanām), virtuālās medmāsas, medikamentu pārvaldība, medikamentu radīšana, precīzijas medicīna (jo ģenētikā un genomikā no DNS informācijas tiek meklētas mutācijas un saistība ar slimību), veselības uzraudzība, veselības aprūpes sistēmas analīze utt.;
G. tā kā pieejamība nenozīmē tos pašus pakalpojumus un ierīces visiem; tā kā mākslīgā intelekta un robotikas pieejamība ir balstīta uz iekļaujošu plānošanu un projektēšanu; tā kā lietotāja vajadzībām, vēlmēm un pieredzei jābūt projekta sākumpunktā;
H. tā kā pastāv nopietnas ētiskas, psiholoģiskas un juridiskas bažas par robotu autonomiju, to acīmredzamo cilvēciskās empātijas trūkumu un ietekmi uz ārstu un pacientu attiecībām, kas vēl nav pienācīgi pētītas ES līmenī, jo īpaši attiecībā uz pacientu personas datu aizsardzību, atbildību un jaunajām ekonomiskajām un darba attiecībām, kas veidosies vēlāk; tā kā “autonomiju” kā tādu var pilnībā attiecināt tikai uz cilvēkiem; tā kā mākslīgajam intelektam ir vajadzīgs stingrs juridiskais un ētiskais satvars;
I. tā kā mākslīgā intelekta ieviešana jo īpaši veselības jomā vienmēr jābalsta uz “cilvēks darbina mašīnu” atbildības principa;
J. tā kā mākslīgā intelekta riski nav pietiekami pētīti,
1. uzsver, ka jebkādam revolucionāram tehnoloģiskam progresam, jo īpaši mākslīgā intelekta un robotikas jomā, būtu jākalpo cilvēku labklājībai;
2. uzsver, ka mākslīgā intelekta sistēmas un roboti ir inovatīvi tehnoloģiski līdzekļi, lai uzlabotu cilvēku dzīvi, attīstītu ekonomiku un risinātu problēmas, kas saistītas ar veselību, vidi, klimata pārmaiņām un pārtikas nekaitīgumu, daudzu citu aspektu starpā vienmēr saglabājot cilvēka atbildību par to izmantošanu;
3. aicina Komisiju un dalībvalstis izstrādāt pilnībā aptverošu ES rīcības plānu, kura mērķis būtu izveidot Eiropas “mākslīgā intelekta ekosistēmu”, lai pilnībā izmantotu sociālekonomiskās attīstības iespējas, vienlaikus rūpīgi risinot jautājumus par drošumu, drošību, kaitējuma novēršanu un risku mazināšanu, cilvēka morālo atbildību, mākslīgā intelekta un robotu pārvaldību un regulējumu, vides ilgtspēju un mākslīgā intelekta iekārtu likvidēšanu[1]; uzsver, ka šai “ekosistēmai” jābūt pieejamai mikrouzņēmumu un mazo un vidējo uzņēmumu (MMVU) vajadzībām un izveidotai sadarbībā ar visām attiecīgajām ieinteresētajām personām, jo īpaši pacientu grupām, bet arī ņemot vērā citu grupu, piemēram, sociālo apvienību, baznīcu un filozofijas fakultāšu, bažas;
4. īpaša uzmanība būtu jāpievērš “lielo datu” izmantošanai veselības jomā, lai maksimizētu iespējas, ko tie var sniegt, piemēram, uzlabot pacientu veselību, kā arī dalībvalstu sabiedrības veselības aprūpes sistēmas, nepazeminot ētikas standartus un neapdraudot iedzīvotāju privātumu vai drošumu;
5. aicina stingri atturēties no jebkāda mēģinājuma aprīkot mākslīgā intelekta mašīnas ar zināma veida “personību”, tādējādi atbrīvojot ražotājus un cilvēkus, kas tās vada, no atbildības;
6. tomēr uzsver, ka pastāvošā medicīnas ierīču apstiprināšanas sistēma nevarētu būt piemērota mākslīgā intelekta tehnoloģijām; aicina Komisiju cieši uzraudzīt šo tehnoloģiju attīstību un vajadzības gadījumā ierosināt tiesiskā regulējuma izmaiņas, lai izveidotu sistēmu lietotāja (ārsta/profesionāļa), tehnoloģiskā risinājuma ražotāja un veselības aprūpi sniedzošās iestādes attiecīgās atbildības noteikšanai; norāda, ka tiesiskā atbildība par kaitējumu ir galvenais jautājums veselības aprūpes nozarē, kur notiek mākslīgā intelekta izmantošana; tāpēc uzsver vajadzību nodrošināt, ka lietotāji netiks vienmēr novesti pie tā, ka viņi atbalstīs tehnoloģiskā instrumenta diagnostisko risinājumu vai ārstēšanu, baidoties tikt apsūdzētiem par radītajiem zaudējumiem, ja, pamatojoties uz savu profesionālo spriedumu, tie nonāktu pie secinājumiem, kas kaut vai daļēji atšķirtos;
7. aicina Komisiju un dalībvalstis piešķirt lielāku finansējumu pētījumiem par mākslīgo intelektu un robotiku un mudināt mākslīgā intelekta ekspertus un Eiropas un citus uzņēmumus radīt inovatīvas darbvietas, uzlabojot pētījumus par sabiedrības veselības jautājumiem; tomēr uzskata, ka kopējai nodarbinātības stratēģijai jāiet roku rokā ar mākslīgā intelekta progresu profesionālās veselības aprūpes kontekstā;
8. aicina Komisiju un dalībvalstis veicināt talantu attīstību mākslīgā intelekta un robotikas jomā, veicot praktiskus pasākumus (piemēram, izveidojot inkubatorus un atbalstot jaunuzņēmumus), lai palielinātu apmācītu darbinieku skaitu, īpašu uzmanību pievēršot sieviešu dalībai un piesaistot studentus no citām disciplīnām;
9. aicina Padomi un Komisiju veikt visus nepieciešamos juridiskos pasākumus, lai aizliegtu eitanāzijas un selekcijas metodes, vairāk izmantojot optimizējošas cilvēks-mašīna saskarnes cilvēka ķermenī;
10. aicina Komisiju atļaut mākslīgā intelekta jomas pētniekiem piekļūt ES pamatprogrammu grantiem un citiem finansējuma veidiem;
11. aicina Komisiju un dalībvalstis izstrādāt tālejošus plānus, kuru mērķis ir piesaistīt galvenās ieinteresētās personas un galvenos dalībniekus no tādām nozarēm kā IT, matemātika, fizika, medicīniskās informācijas tehnoloģijas, klīniskā psiholoģija, bioinženierija un farmācija, lai atvērtu mākslīgā intelekta biomedicīniskos un bioniskos pētniecības centrus visā Eiropā; tomēr aicina Komisiju un dalībvalstis nopietni ņemt vērā mākslīgā intelekta riskus (piemēram, to ietekmi uz ārsta un pacienta attiecībām un medicīniskās aprūpes dehumanizāciju) un atbalstīt pētījumus par riskiem un ētikas apsvērumiem saistībā ar mākslīgo intelektu, kas varētu palīdzēt noteikt, vai un ar kādiem nosacījumiem konkrēta tehnoloģiska risinājuma izmantošanu varētu uzskatīt par piemērotu un saskaņā ar cilvēka cieņas un vienlīdzības pamatprincipiem, un līdz ar to tas būtu atļaujams;
12. aicina dalībvalstis un Komisiju palielināt finansējumu ar veselības aprūpi saistītām mākslīgā intelekta tehnoloģijām publiskajā un privātajā sektorā; šajā kontekstā atzinīgi vērtē 24 ES dalībvalstu un Norvēģijas parakstīto sadarbības deklarāciju, lai Eiropas līmenī palielinātu investīciju ietekmi mākslīgā intelekta jomā; aicina dalībvalstis un Komisiju apsvērt, vai apmācības programmas medicīnas un veselības aprūpes darbiniekiem būtu jāatjaunina un jāstandartizē visā Eiropā, lai nodrošinātu augsta līmeņa zināšanas un vienlīdzīgus konkurences apstākļus dalībvalstīs attiecībā uz zināšanām un visprogresīvāko tehnoloģisko instrumentu izmantošanu robotoperācijās, biomedicīnā un uz mākslīgo intelektu balstītā biomedicīnisko attēlu iegūšanā.
INFORMĀCIJA PAR PIEŅEMŠANUATZINUMU SNIEDZOŠAJĀ KOMITEJĀ
Pieņemšanas datums |
20.11.2018 |
|
|
|
|
Galīgais balsojums |
+: –: 0: |
48 2 0 |
|||
Komitejas locekļi, kas bija klāt galīgajā balsošanā |
Marco Affronte, Pilar Ayuso, Zoltán Balczó, Catherine Bearder, Ivo Belet, Biljana Borzan, Paul Brannen, Nessa Childers, Birgit Collin-Langen, Seb Dance, Mark Demesmaeker, Bas Eickhout, Francesc Gambús, Gerben-Jan Gerbrandy, Jens Gieseke, Julie Girling, Sylvie Goddyn, Françoise Grossetête, Benedek Jávor, Karin Kadenbach, Urszula Krupa, Giovanni La Via, Jo Leinen, Peter Liese, Valentinas Mazuronis, Susanne Melior, Miroslav Mikolášik, Massimo Paolucci, Gilles Pargneaux, Bolesław G. Piecha, John Procter, Julia Reid, Frédérique Ries, Annie Schreijer-Pierik, Adina-Ioana Vălean, Jadwiga Wiśniewska |
||||
Aizstājēji, kas bija klāt galīgajā balsošanā |
Cristian-Silviu Buşoi, Nicola Caputo, Michel Dantin, Martin Häusling, Esther Herranz García, Gesine Meissner, Tilly Metz, Ulrike Müller, Sirpa Pietikäinen, Carlos Zorrinho |
||||
Aizstājēji (200. panta 2. punkts), kas bija klāt galīgajā balsošanā |
Mercedes Bresso, Innocenzo Leontini, Olle Ludvigsson, Ana Miranda |
||||
ATZINUMU SNIEDZOŠĀS KOMITEJASGALĪGAIS BALSOJUMS PĒC SARAKSTA
48 |
+ |
|
ALDE |
Catherine Bearder, Gerben Jan Gerbrandy, Valentinas Mazuronis, Gesine Meissner, Ulrike Müller, Frédérique Ries |
|
ECR |
Mark Demesmaeker, Urszula Krupa, Bolesław G. Piecha, John Procter, Jadwiga Wiśniewska |
|
EFDD |
Sylvie Goddyn |
|
NI |
Zoltán Balczó |
|
PPE |
Pilar Ayuso, Ivo Belet, Cristian-Silviu Buşoi, Birgit Collin-Langen, Michel Dantin, Francesc Gambús, Jens Gieseke, Françoise Grossetête, Esther Herranz García, Giovanni La Via, Innocenzo Leontini, Peter Liese, Miroslav Mikolášik, Sirpa Pietikäinen, Annie Schreijer-Pierik, Adina-Ioana Vălean |
|
S&D |
Biljana Borzan, Paul Brannen, Mercedes Bresso, Nicola Caputo, Nessa Childers, Seb Dance, Karin Kadenbach, Jo Leinen, Olle Ludvigsson, Susanne Melior, Massimo Paolucci, Gilles Pargneaux, Carlos Zorrinho |
|
VERTS/ALE |
Marco Affronte, Bas Eickhout, Martin Häusling, Benedek Jávor, Tilly Metz, Ana Miranda |
|
2 |
- |
|
EFDD |
Julia Reid |
|
PPE |
Julie Girling |
|
0 |
0 |
|
|
|
|
Izmantoto apzīmējumu skaidrojums:
+ : par
- : pret
0 : atturas
- [1] Skatīt jo īpaši Eiropas Dabaszinātņu un jauno tehnoloģiju ētikas grupas 2018. gada marta paziņojumu par mākslīgo intelektu, robotiku un “autonomajām” sistēmām (“Artificial Intelligence, Robotics and ‘Autonomous’ Systems”).
INFORMĀCIJA PAR PIEŅEMŠANUATBILDĪGAJĀ KOMITEJĀ
Pieņemšanas datums |
14.1.2019 |
|
|
|
|
Galīgais balsojums |
+: –: 0: |
49 1 4 |
|||
Komitejas locekļi, kas bija klāt galīgajā balsošanā |
Bendt Bendtsen, Jonathan Bullock, Cristian-Silviu Buşoi, Jerzy Buzek, Edward Czesak, Jakop Dalunde, Fredrick Federley, Ashley Fox, Igor Gräzin, Theresa Griffin, András Gyürk, Rebecca Harms, Eva Kaili, Barbara Kappel, Seán Kelly, Jeppe Kofod, Jaromír Kohlíček, Peter Kouroumbashev, Zdzisław Krasnodębski, Miapetra Kumpula-Natri, Christelle Lechevalier, Paloma López Bermejo, Edouard Martin, Tilly Metz, Angelika Mlinar, Csaba Molnár, Nadine Morano, Angelika Niebler, Morten Helveg Petersen, Miroslav Poche, Carolina Punset, Julia Reda, Paul Rübig, Massimiliano Salini, Algirdas Saudargas, Sven Schulze, Neoklis Sylikiotis, Patrizia Toia, Evžen Tošenovský, Vladimir Urutchev, Kathleen Van Brempt, Henna Virkkunen, Flavio Zanonato, Carlos Zorrinho |
||||
Aizstājēji, kas bija klāt galīgajā balsošanā |
Pilar Ayuso, Michał Boni, Gunnar Hökmark, Rupert Matthews, Clare Moody, Caroline Nagtegaal, Răzvan Popa, Dennis Radtke, Giancarlo Scottà, Davor Škrlec |
||||
ATBILDĪGĀS KOMITEJASGALĪGAIS BALSOJUMS PĒC SARAKSTA
49 |
+ |
|
ALDE |
Fredrick Federley, Igor Gräzin, Angelika Mlinar, Caroline Nagtegaal, Morten Helveg Petersen, Carolina Punset |
|
ECR |
Edward Czesak, Ashley Fox, Zdzisław Krasnodębski, Rupert Matthews, Evžen Tošenovský |
|
ENF |
Barbara Kappel, Christelle Lechevalier, Giancarlo Scottà |
|
PPE |
Pilar Ayuso, Bendt Bendtsen, Michał Boni, Cristian-Silviu Buşoi, Jerzy Buzek, András Gyürk, Gunnar Hökmark, Seán Kelly, Nadine Morano, Angelika Niebler, Dennis Radtke, Paul Rübig, Massimiliano Salini, Algirdas Saudargas, Sven Schulze, Vladimir Urutchev, Henna Virkkunen |
|
S&D |
Theresa Griffin, Eva Kaili, Jeppe Kofod, Peter Kouroumbashev, Miapetra Kumpula-Natri, Csaba Molnár, Clare Moody, Miroslav Poche, Răzvan Popa, Patrizia Toia, Kathleen Van Brempt, Flavio Zanonato, Carlos Zorrinho |
|
VERTS/ALE |
Jakop Dalunde, Rebecca Harms, Tilly Metz, Julia Reda, Davor Škrlec |
|
1 |
- |
|
EFDD |
Jonathan Bullock |
|
4 |
0 |
|
GUE/NGL |
Jaromír Kohlíček, Paloma López Bermejo, Neoklis Sylikiotis |
|
S&D |
Edouard Martin |
|
Izmantoto apzīmējumu skaidrojums:
+ : par
- : pret
0 : atturas