Nīderlandes varas iestādes brīdina vēlētājus: čatboti nedrīkst noteikt partijas izvēli

Nīderlandes datu aizsardzības uzraugs brīdinājis vēlētājus, ka ir bīstami jautāt mākslīgā intelekta čatbotiem padomu, lai izvēlētos, kam atdot savu balsi, jo to sniegtā atbilde nav objektīva, vēsta “Politico.”

Datu aizsardzības uzraugs 21.oktobrī publiskotajā pētījumā norādījis, ka čatboti sniedz izkropļotu un polarizētu Nīderlandes politskās vides atspoguļojumu pirms 29.oktobrī plānotajām vēlēšanām. Iestādes vicepriekšsēdētāja Monika Verdjē (Monique Verdier) sacīja, ka čatbotu darbības nav caurspīdīgas un pārbaudāmas, tāpēc tos nav ieteicams izmantot, lai prasītu padomu par vēlēšanām. Viņa arī aicināja čatbotu izstrādātājus novērst situācijas, kad to sistēmas tiek izmantotas padomu prasīšanai pirms vēlēšanām.

Datu aizsardzības pārvalde veikusi eksperimentu par to, kā partijas parādītas čatbotu sniegtajos vēlēšanu padomos. Tika izmantoti “ChatGPT,” “Gemini,” “Grok,” “Le Chat.”

Iestāde izveidoja vēlētāju profilus, kas atbilst dažādām politiskajām partijām, un tad palūdza čatbotus sniegt padomus.

Vēlētāju profili, kas bija spektra kreisajā un progresīvajā pusē, visbiežāk tika novirzīti uz kreiso Zaļo darba partiju. Savukārt labējās un konservatīvās puses atbalstītāji saņēma ieteikumu balsot par galēji labējo partiju PVV, kas šobrīd arī ieņem vadošo pozīciju aptaujās.

Tikpat kā netika ieteiktas centriskās partijas, lai gan šis virziens bija vienlīdzīgi pārstāvēts vēlētāju profilos, kas bija doti čatbotiem.

Mākslīgā intelekta rīku izstrādātāji “OpenAI,” “Google” un “Mistral” ir parakstījuši Eiropas Savienības noteikumus mākslīgā intelekta modeļiem, savukārt “xAI” tiem piekritis daļēji. Noteikumi paredz, ka uzņēmumi apņemas izvērtēt risku, ko rada to veidotie mākslīgā intelekta modeļi, tostarp potenciālo risku pamattiesībām un sabiedrībai.

Lasiet arī: No Baltkrievijas ielidojušu kontrabandas balonu dēļ atkal nācies slēgt Viļņas lidostu

Seko mums arī FacebookDraugiem un X!

Saistītie raksti

Jaunākās Ziņas