Cada dia són les més empreses que aprofiten el desenvolupament de grans bases de dades i ordinadors cada vegada més potents per a impulsar tot tipus aplicacions amb Intel·ligència Artificial (*IA) dirigides als consumidors: assistents personals com *Siri o *Alexa, eines de diagnòstic o, més recentment, *ChatGPT. Aplicacions cada dia més populars i en general ben valorades pels seus usuaris que, no obstant això, comparteixen una creixent preocupació per l'ús de les seves dades personals, adverteix l'Organització de Consumidors i Usuaris (OCU).
Segons una recent enquesta d'OCU, el 65% dels usuaris de *ChatGPT creu que poden generar-se abusos en l'ús de les seves dades personals. És més, el 67% considera que l'ús de la *IA servirà a les empreses per a manipular als consumidors. I el pitjor és que només 3 de cada 10 confia que les autoritats de la Unió Europea o les nacionals duguin a terme un eficaç control sobre les dades o les informacions personals que recull *ChatGPT.
OCU coincideix amb la sensació de falta de protecció dels usuaris: “És impossible que un consumidor mitjà tingui coneixement de l'abast actual i futur del seu consentiment per a l'ús de les seves dades personals”. D'aquí ve que l'Organització exigeixi a l'Administració que supervisi i controli de manera activa les complexes condicions del consentiment que s'imposa als consumidors per les empreses que empren algorismes i sistemes d'Intel·ligència Artificial en la seva activitat. Donada la ràpida evolució de la tecnologia, basar en aquests casos la legalitat del tractament en el consentiment del consumidor ja no resulta del tot adequat i ha de recolzar-se necessàriament amb una supervisió i control previs que inspirin confiança i donin garanties a l'usuari.
OCU urgeix a més una regulació que obligui a totes les empreses que usin Intel·ligència Artificial en les seves relacions amb els consumidors a:
- Prioritzar el benestar dels usuaris sobre la rendibilitat econòmica, prevalent principis ètics com el respecte, l'honestedat o l'equitat. Al mateix temps que es manté el compromís de salvaguarda dels Drets Humans.
- Informar sobre els algorismes que utilitzen i el tractament que es donarà a la informació personal, de tal mode que no es discrimini per raons de gènere, raça, religió o nivell socioeconòmic. I distingint els continguts generats per la pròpia *IA de la resta.
- No han d'existir caixes negres on no es pugui conèixer el procés seguit per la *IA per a arribar a una decisió, de manera que no es pugui defensar a un consumidor d'una decisió automatitzada.
- Remetre informes independents a les autoritats de control, incloent-hi els possibles riscos als quals s'enfronten els usuaris i les mesures per a reduir-los.
- Assumir la seva responsabilitat, fins i tot penal, per la veracitat de la informació que es transmet i per les accions que violin les lleis i codis establerts; així com pels danys derivats de l'impacte negatiu de les seves activitats.
- Limitar el seu impacte sobre l'aigua, l'energia i altres recursos escassos, aquests últims sovint procedents de regions amb conflictes on no es respecten els drets humans.
Consulta la notícia original ACI