Повежите се са нама

Вештачка интелигенција

Закон о вештачкој интелигенцији ЕУ: Прва уредба о вештачкој интелигенцији 

ОБЈАВИ:

објављен

on

Користимо вашу регистрацију за пружање садржаја на начин на који сте пристали и за боље разумевање вас. Можете се одјавити у било ком тренутку.

Употреба вештачке интелигенције у ЕУ биће регулисана Законом о вештачкој интелигенцији, првим свеобухватним светским законом о вештачкој интелигенцији. Сазнајте како ће вас заштитити, Друштво.

Као део њеног дигитална стратегија, ЕУ жели да регулише вештачку интелигенцију (АИ) како би обезбедила боље услове за развој и коришћење ове иновативне технологије. АИ може створити многе предности, као што је боља здравствена заштита; безбеднији и чистији транспорт; ефикаснија производња; и јефтинија и одрживија енергија.

У априлу 2021. Европска комисија је предложила први регулаторни оквир ЕУ за АИ. Каже да су системи вештачке интелигенције који се могу користити у различитим апликацијама анализирани и класификовани према ризику који представљају за кориснике. Различити нивои ризика ће значити више или мање регулације. Када буду одобрени, ово ће бити прва светска правила о вештачкој интелигенцији.

Сазнајте више о шта је вештачка интелигенција и како се користи.

Шта Парламент жели у законодавству о вештачкој интелигенцији

Приоритет парламента је осигурати да системи вештачке интелигенције који се користе у ЕУ буду безбедни, транспарентни, следљиви, недискриминаторни и еколошки прихватљиви. Системе вештачке интелигенције треба да надгледају људи, а не аутоматизација, како би се спречили штетни исходи.

Парламент такође жели да успостави технолошки неутралну, једнообразну дефиницију за вештачку интелигенцију која би се могла применити на будуће системе вештачке интелигенције.

Сазнајте више о Рад парламента на АИ и његово визија будућности АИ.

реклама

Закон о вештачкој интелигенцији: различита правила за различите нивое ризика

Нова правила утврђују обавезе за провајдере и кориснике у зависности од нивоа ризика од вештачке интелигенције. Иако многи системи вештачке интелигенције представљају минималан ризик, потребно их је проценити.

Неприхватљив ризик

Системи вештачке интелигенције неприхватљивог ризика су системи који се сматрају претњом по људе и биће забрањени. То укључује:

  • Когнитивна манипулација понашања људи или специфичних рањивих група: на пример играчке које се активирају гласом које подстичу опасно понашање код деце
  • Друштвено бодовање: класификовање људи на основу понашања, социо-економског статуса или личних карактеристика
  • Системи биометријске идентификације у реалном времену и даљински, као што је препознавање лица

Неки изузеци могу бити дозвољени: На пример, системима даљинске биометријске идентификације „пост“ где се идентификација догоди након значајног одлагања биће дозвољено кривично гоњење за тешка кривична дела, али тек након одобрења суда.

Висок ризик

Системи вештачке интелигенције који негативно утичу на безбедност или основна права сматраће се високим ризиком и биће подељени у две категорије:

1) АИ системи који се користе у производима који потпадају под законодавство ЕУ о безбедности производа. Ово укључује играчке, авијацију, аутомобиле, медицинске уређаје и лифтове.

2) Системи вештачке интелигенције који спадају у осам специфичних области које ће морати да буду регистроване у бази података ЕУ:

  • Биометријска идентификација и категоризација физичких лица
  • Управљање и рад критичне инфраструктуре
  • Образовање и стручно оспособљавање
  • Запошљавање, управљање радницима и приступ самозапошљавању
  • Приступ и уживање основних приватних услуга и јавних услуга и бенефиција
  • Спровођење закона
  • Управљање миграцијама, азилом и граничном контролом
  • Помоћ у правном тумачењу и примени закона.

Сви високоризични системи вештачке интелигенције биће процењени пре него што буду стављени на тржиште, као и током њиховог животног циклуса.

Генеративна АИ

Генеративна АИ, као што је ЦхатГПТ, би морала да буде у складу са захтевима транспарентности:

  • Откривање да је садржај генерисао АИ
  • Дизајнирање модела како би се спречило да генерише незаконит садржај
  • Објављивање сажетака података заштићених ауторским правима који се користе за обуку

Ограничени ризик

Системи вештачке интелигенције са ограниченим ризиком треба да буду у складу са минималним захтевима за транспарентност који би омогућили корисницима да доносе одлуке на основу информација. Након интеракције са апликацијама, корисник може одлучити да ли жели да настави да је користи. Корисници треба да буду обавештени када су у интеракцији са АИ. Ово укључује АИ системе који генеришу или манипулишу сликама, аудио или видео садржајем, на пример деепфакес.

Следећи кораци

Посланици ЕП усвојили су 14. јуна 2023 Преговарачка позиција парламената о закону о вештачкој интелигенцији. Сада ће почети разговори са земљама ЕУ у Савету о коначној форми закона.

Циљ је да се договор постигне до краја ове године.

Више о дигиталним мерама ЕУ

Информисање 

Поделите овај чланак:

ЕУ Репортер објављује чланке из разних спољних извора који изражавају широк спектар гледишта. Ставови заузети у овим чланцима нису нужно ставови ЕУ Репортера.

Трендови