Behovet for at bruge kunstig intelligens etisk korrekt
Som mennesker genskaber vi ofte fantasien om at konfrontere visse former for intelligens, der handler imod vores interesser. Når det gælder udfordringen med at bruge kunstig intelligens etisk korrekt, befinder vi os på et vendepunkt. For dette teknologiske fremskridt lover en udvikling uden fortilfælde. Men det medfører også visse udfordringer og vanskeligheder, som kræver refleksion og handling.
Disse accelererede forandringer har skabt en række problemer af social karakter, som kæmper for at holde trit med denne nye form for intelligens. Hvilke foranstaltninger bør vi træffe?
Til at begynde med er vi nødt til at fastsætte moralske og sandsynligvis også juridiske grænser for brugen af kunstig intelligens. Hvis vi ikke gør det, vil vi udsætte os selv for, at civilisationens udvikling vil blive stik modsat den ønskede.
At bruge kunstig intelligens etisk korrekt
Debatten om kunstig intelligens og brugen af den er bred og kompleks. Når det er sagt, er der en vis enighed om visse moralske normer i denne henseende.
1. Kunstig intelligens i tjeneste af menneskelige interesser
En artikel offentliggjort i Real Academia de Ciencias Morales y Políticas hævder, at ud fra et humanistisk synspunkt har kunstig intelligens til opgave at minimere menneskers undgåelige lidelser. Det er her, at begrebet ondsindet brug af kunstig intelligens kommer ind i billedet. Det henviser nemlig til de potentielle farer, som misbrug af disse programmer udgør for samfundet.
Derfor skal menneskers sikkerhed garanteres, og det samme gælder privatlivets fred og omgivelsernes identitet. Ellers vil præceptet i dette afsnit blive overtrådt.
2. Undgå datadiktaturet
Indsamling af massive data (big data) er drivkraften bag fremskridt inden for så forskellige områder som medicinsk teknologi og økonomisk udvikling. Men når dataene bruges til at skævvride befolkningen og segregere den, taler man om “datadiktaturet”, siges det i en meddelelse fra CSIC.
Hvis vi fortsætter med dette eksempel, kan kunstig intelligens indsamle enorme prøver af resultaterne af en ny medicinsk behandling eller forekomsten af sundhedsproblemer. I dette scenarie må vi spørge os selv, i hvilket omfang det er etisk forsvarligt, at et forsikringsselskab har adgang til disse data for at give os tilbud eller give os en dækning.
3. Respekt for neurorettigheder
Big data kan også bruges til at lave forudsigelser om menneskelig adfærd. Dette kunne virkelig udnyttes inden for markedsføring. For at bruge kunstig intelligens etisk korrekt bør sådanne data derfor ikke være et værktøj, der påvirker brugernes identitet eller deres kognitive frihed. Dette er vores neurorettigheder.
Inden for kunstig intelligens er det vigtigt at sikre, at neurorettighederne respekteres i forbindelse med indsamling, lagring, analyse og brug af hjernedata. Dette indebærer, at der skal indhentes informeret og udtrykkeligt samtykke fra enkeltpersoner, før der indsamles data fra deres hjerner. Desuden skal dataenes privatliv og fortrolighed beskyttes, og de skal anvendes etisk og ansvarligt.
Desuden skal respekten for vores neurorettigheder sikre, at kunstig intelligens ikke bruges til at manipulere eller uretmæssigt påvirke vores identitet, kognitive frihed eller autonomi.
Dette omfatter at undgå enhver form for diskrimination, stigmatisering eller manipulation på grundlag af hjernedata. Desuden indebærer det at sikre, at beslutninger og handlinger baseret på kunstig intelligens er gennemsigtige, forklarbare og retfærdige.
Dette er imidlertid noget af en udfordring, da de fleste af de modeller, som kunstig intelligens arbejder med, er uigennemsigtige. De giver faktisk gode resultater, men vi ved ikke hvorfor.
4. Bevarelse af den menneskelige værdighed ved at bruge kunstig intelligens etisk korrekt
Visse job, især dem, der giver pleje, anses for at være uegnede til kunstig intelligens og robotter. Det skyldes, at de kræver evnen til empati og respekt. Det ville f.eks. ikke være etisk forsvarligt at udsætte et individ for terapi styret af kunstig intelligens eller at lade den fungere som politibetjent eller dommer.
Begrebet empati hos robotter giver yderst interessante udfordringer på grund af naturen af menneskelige følelser og bevidsthed. Selv om robotter kan programmeres til at genkende og reagere på menneskelige ansigtsudtryk, tonefald og andre følelsesmæssige signaler, har de ikke evnen til at opleve følelser og forstå på samme måde som os.
I en artikel offentliggjort i Economía y Sociedad forklares det, at intelligente teknologier får funktioner, der er forbundet med håndtering af følelser. Derfor falder de ligesom mennesker i en modsætning mellem den moralske pligt og det scenarie, hvor den gennemføres.
5. Hold kilderne åbne
Der er et udsagn, der er fremherskende i forbindelse med kunstig intelligens. Det er idéen om, at deres kode bør være åben og offentlig. Desuden bør dens udvikling ikke være i hænderne på nogle få, da det er en teknologi, der direkte påvirker folks liv, sociale konfiguration og endda deres kultur. Der skal sikres gennemsigtighed, og ondsindet brug af kunstig intelligens skal forhindres.
Hvorfor skal vi bruge kunstig intelligens etisk korrekt?
Fra national sikkerhed til brug af en app, fra politik til medicin, skal brugen af kunstig intelligens gennemgås etisk på en uvildig måde. Enhver ondsindet brug af den ville ikke blot forårsage eller øge truslerne mod vores samfund. Det ville også uddybe de negative konsekvenser.
Da kunstig intelligens er ved at ændre vores verden og kultur, skal passive aktører parallelt hermed udvikle en kultur af ansvarlighed og god brug. I modsætning til, hvad mange mennesker tror, drejer det sig ikke kun om at lære og anvende cybersikkerhedsforanstaltninger.
Faktisk er fremme af en sådan ansvarlig kultur kun det første skridt. Det er vigtigt, at regeringer og virksomheder træffer foranstaltninger til etisk forvaltning af kunstig intelligens. Faktisk er den moralske refleksion allerede begyndt, og der er sket nogle fremskridt i denne henseende, som det fremgår af Derecho Global.
Effektiviteten af konklusionerne af denne refleksion vil afhænge af, om de opfylder deres humanistiske målsætning. I øjeblikket er det menneskene bag robotterne, der virkelig dominerer os. For øjeblikket ligger der nemlig menneskelig intelligens bag al kunstig intelligens.
Alle citerede kilder blev grundigt gennemgået af vores team for at sikre deres kvalitet, pålidelighed, aktualitet og validitet. Bibliografien i denne artikel blev betragtet som pålidelig og af akademisk eller videnskabelig nøjagtighed.
- The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation. https://doi.org/10.17863/CAM.22520
- Cortina Orts, A. (2019). Ética de la inteligencia artificial. Anales de la Real Academia de Ciencias Morales y Políticas, 379-394. Ministerio de Justicia. https://www.boe.es/biblioteca_juridica/anuarios_derecho/abrir_pdf.php?id=ANU-M-2019-10037900394
- García Pastor, E. (2022). Definiendo una inteligencia artificial más ética. Consejo Superior de Investigaciones Científicas. https://www.csic.es/es/actualidad-del-csic/definiendo-una-inteligencia-artificial-mas-etica
- González Arencibia, M., & Martínez Cardero, D. (2020). Dilemas éticos en el escenario de la inteligencia artificial. Economía y Sociedad, 25(57), 93-109. https://dx.doi.org/10.15359/eys.25-57.5
- Fernández Fernández, J. L. (2021). Hacia el Humanismo Digital desde un denominador común para la Cíber Ética y la Ética de la Inteligencia Artificial. Disputatio. Philosophical Research Bulletin, 10(17), 107-130. https://dialnet.unirioja.es/servlet/articulo?codigo=8018155
- Porcelli, A. (2020). La inteligencia artificial y la robótica: sus dilemas sociales, éticos y jurídicos. Derecho global. Estudios sobre derecho y justicia, 6(16), 49-105. Epub 27 de enero de 2021.https://doi.org/10.32870/dgedj.v6i16.286
- Recomendación sobre la ética de la inteligencia artificial. (2021). Unesco.org. Recuperado 11 de abril de 2023. https://unesdoc.unesco.org/ark:/48223/pf0000381137_spa
- Terrones Rodríguez, A. L. (2018). Inteligencia artificial y ética de la responsabilidad. Cuestiones de Filosofía, 4(22). https://www.researchgate.net/publication/326907301_Inteligencia_artificial_y_etica_de_la_responsabilidad