valutaen

Norges Kryptomagasin. For deg som liker kryptovaluta, Blockchain & AI-Teknologi.

AI-Teknologi

Kunstig intelligens til og kle av kvinner

Kunstig intelligens til og kle av kvinner

Kunstig intelligens til og kle av kvinner. Applikasjoner og nettsteder som bruker kunstig intelligens til å avkle kvinner på bilder, er i ferd med å bli svært populære, ifølge forskere. Såkalte «Nudify’ Apps» I løpet av bare september besøkte 24 millioner mennesker nettsteder for avkledning, ifølge sosial nettverksanalysefirmaet Graphika. En bekymringsfull trend er at mange av disse «nudifiserings»-tjenestene benytter populære sosiale nettverk som plattform for markedsføring. Graphika påpeker at siden årets begynnelse har antallet lenker som annonserer slike avkledningsapper økt med over 2400 prosent. På sosiale medier som X og Reddit.

Urovekkende

Det som gjør denne økningen enda mer urovekkende, er bruken av kunstig intelligens (AI). For å gjenskape bilder og skape realistiske nakenbilder av personer uten deres samtykke. Mange av disse tjenestene retter seg spesifikt mot kvinner. Denne utviklingen hører hjemme i den dystre trenden med ikke-samtykkende pornografi. Som er drevet av fremskritt innen kunstig intelligens, også kjent som «deepfake-pornografi». Dette medfører betydelige juridiske og etiske utfordringer. Da bildene ofte hentes fra sosiale medier og distribueres uten samtykke, kontroll eller kunnskap fra den avbildede.

Popularitet

Økningen i popularitet synes å være tett knyttet til utgivelsen av flere åpne distribusjonsmodeller for kunstig intelligens, ifølge Graphika. Disse modellene, som apputviklere fritt kan benytte seg av på grunn av sin åpne kildekode. Muliggjør at apputviklere skaper realistiske bilder.. Santiago Lakatos, en analytiker ved Graphika, bemerker at tidligere deepfakes ofte var uskarpe, men nå kan man lage noe som ser autentisk ut.

Lage nakenbilder


I tillegg til bekymringen for ikke-samtykkende avkledning, har man avdekket problematiske markedsføringsmetoder.. En annonse på X antyder at kundene kan lage nakenbilder og sende dem til personen som digitalt er avkledd, oppmuntrende til trakassering. Google har reagert ved å fjerne slike annonser som bryter retningslinjene deres, selv om en app har kjøpt sponsede innlegg på YouTube. Reddit har også tatt grep ved å forby domener knyttet til denne problematikken.

Menneskerettighetseksperter

I tillegg til økningen i trafikk, påstår noen av tjenestene, som tar betalt opptil $9.99 per måned, at de har tusenvis av daglige brukere. Dette indikerer en alarmerende etterspørsel og aktivitet innenfor denne bransjen. Menneskerettighetseksperter frykter at fremskritt innen AI har gjort det enklere og mer effektivt å lage falske, pornografiske bilder. Ikke bare av kjente personer, men også av vanlige mennesker, inkludert studenter.

Ikke-samtykkende pornografi

Mens problemet med ikke-samtykkende pornografi har eksistert lenge. Er det nå blitt mer tilgjengelig for vanlige mennesker, inkludert studenter på videregående skole og universitet. Ofrene har ofte vanskelig for å oppdage slike bilder, og selv om de gjør det, kan det være utfordrende å få rettshåndhevelse til å etterforske eller skaffe midler til juridiske tiltak. I dag er det ingen føderal lov som forbyr skapelsen av deepfake-pornografi. Selv om det amerikanske regjeringsorganet forbyr generering av slike bilder av mindreårige.

40 års fengsel

I november ble det imidlertid satt et presedens da en barnelege i Nord-Carolina ble dømt til 40 års fengsel. For bruk av avkledningsapper på bilder av sine pasienter. Den første rettssaken av sitt slag under loven som forbyr deepfake-generering av barnepornografisk materiale. Plattformer som TikTok og Meta Platforms Inc. har reagert ved å blokkere søkeord knyttet til avkledningstjenester. Mens dette er positive tiltak, påpeker kritikere at det er behov for ytterligere regulering og lover. For å adressere denne stadig økende trusselen mot personvern og integritet på nettet.

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *