Kwa nini wanawake hawawezi kupata ulinzi dhidi ya unyanyasaji wa kina wa AI – Masuala ya Ulimwenguni

Minong’ono ilimfuata nje ya mtandao. Mkondoni, matumizi mabaya yameingizwa, hayajadhibitiwa: maoni, kejeli, zilizoshirikiwa, picha za skrini. Yeye alikuwa kamwe akakubali yoyote ya hayo. Hilo lilikuwa halijamzuia mtu yeyote.

Ndani ya dakika chache, maelfu walikuwa wameona yaliyomo. Ndani ya masaa, mamilioni.

Jinamizi lilikuwa limeanza tu.

Siku zilipita kabla ya majukwaa kujibu. Kufikia wakati huo, picha zilikuwa zimeonekana, zimehifadhiwa, na kunakiliwa. Alibaki akiuliza: Je, ninaripoti kwa nani? Je, kuna mtu yeyote ataniamini? Je, watu waliofanya hivi watawahi kupata matokeo? Au lawama zitatua juu yangu?

Huu ndio ukweli wa maelfu ya wanawake na wasichana kila siku. Fasihi za kina za AI zinaharibu maisha halisi na haki inabaki kuwa nje ya kufikiwa kwa walionusurika wengi.

Hadithi yake inaweza kuwa yako.

Matumizi mabaya ya kina ni makali ya mtindo mpana zaidi wa unyanyasaji wa kidijitali unaolenga wanawake na wasichana. Ni jinsia na inazidi kuongezeka. Hivi sasa, mifumo iliyoundwa kulinda watu haifanyi kazi, huku zana za kusababisha madhara zikiwa za bei nafuu, haraka na rahisi kutumia kila siku.

Hapa ndio unahitaji kujua:

Matumizi mabaya ya kina ni nini na ni ya kawaida kiasi gani?

Deepfakes ni picha, sauti au video zinazotumiwa na akili bandia (AI) ambazo hufanya ionekane kuwa mtu alisema au kufanya jambo ambalo hajawahi kufanya.

Teknolojia yenyewe si mpya, lakini silaha zake dhidi ya wanawake na wasichana ni jambo jipya zaidi, na linaongezeka kwa kasi.

  • ponografia ya kina bandia iliunda asilimia 98 ya video zote ghushi mtandaoni, na asilimia 99 zilionyesha wanawake, kulingana na ripoti ya 2023.
  • video za kina zilikadiriwa kuwa asilimia 550 zaidi mnamo 2023 kuliko 2019
  • zana za kuziunda zinapatikana kwa wingi, kwa kawaida bure, na zinahitaji utaalamu mdogo sana wa kiufundi
  • mara tu inapochapishwa, maudhui yanayotokana na AI yanaweza kunakiliwa mara kwa mara, kuhifadhiwa kwenye vifaa vya faragha, na kushirikiwa kwenye majukwaa, hivyo basi kuwa vigumu kuondoa kabisa.

Kwa nini walionusurika hawaripoti na nini kinatokea wanapofanya hivyo

Kuripoti kidogo ni mojawapo ya vikwazo vikubwa vya uwajibikaji. Kwa waathirika wanaojitokeza, mfumo wa haki mara nyingi huwa chanzo kingine cha kiwewe.

  • Walionusurika huulizwa mara kwa mara kutazama na kuelezea maudhui yenye matusi na polisi, mawakili na wasimamizi wa jukwaa huku mara nyingi wakikabiliana na maswali kama, “una uhakika si kweli?” au “Je, ulishiriki picha za karibu?”
  • Kesi ikifika kortini, mavazi yao, mahusiano na tabia zao za zamani hupitia darubini, sio za mhusika.
  • Madhara hayabaki mtandaoni, kulingana na a Utafiti wa UN Womenambayo ilipata asilimia 41 ya wanawake katika maisha ya umma ambao walikumbwa na vurugu za kidijitali pia waliripoti kukabiliwa na mashambulizi ya nje ya mtandao au unyanyasaji unaohusishwa nayo.

Kwa nini wabunifu wa kina mara chache hawakabiliani na haki

Licha ya ukubwa wa madhara, mashtaka ni nadra, majukwaa mara kwa mara hushindwa kuchukua hatua na waathirika mara nyingi hupata kiwewe wanapojaribu kutafuta usaidizi. Hii ndio sababu:

Sheria haijakaa kwa kuwa chini ya nusu ya nchi zina sheria zinazoshughulikia matumizi mabaya ya mtandaoni na chache zaidi zina sheria zinazohusu maudhui ya kina yanayotokana na AI.

  • Sheria nyingi za “kulipiza kisasi” au sheria za unyanyasaji kulingana na picha ziliandikwa kabla ya ukweli kuwapo, na kuacha mianya iliyobaki.
  • katika nchi nyingi, ponografia ya kina au picha za uchi zinazozalishwa na AI huanguka katika maeneo halali ya kijivu
  • walionusurika hawana uhakika kama unyanyasaji huo ni kinyume cha sheria na iwapo wahusika wanaweza kufunguliwa mashtaka

Utekelezaji umechelewa kwa sababu hata wakati sheria zipo, wachunguzi wanahitaji utaalam wa uchunguzi wa kidijitali, uratibu wa mipaka na ushirikiano wa jukwaa ili kujenga kesi wakati mifumo mingi ya haki haina rasilimali za kutosha kwa mojawapo ya haya.

  • ushahidi hutoweka haraka maudhui yanapoenea na nakala huongezeka huku wahusika wakijificha bila kujulikana majina yao au wanaendesha shughuli zao katika maeneo mbalimbali.
  • mifumo ni polepole au haitaki kushiriki data na wasimamizi wa sheria, haswa katika kesi za mipakani
  • magogo ya uchunguzi wa kidijitali yanamaanisha kuwa kesi hukwama kabla hata hazijaanza

Mifumo ya teknolojia ni waathirika walioshindwa kwa vile wamejificha kwa muda mrefu nyuma ya hali ya “mpatanishi” ili kuepuka kuwajibika kwa maudhui yanayozalishwa na mtumiaji.

Nini lazima kitokee sasa

Ingawa kuna idadi ya mataifa na maeneo yanayochukua hatua (tazama kisanduku cha maandishi hapa chini), kukomesha matumizi mabaya ya kina kunahitaji hatua za haraka, zilizoratibiwa kutoka kwa serikali, taasisi na mifumo ya teknolojia.

Hapa kuna mambo matano ambayo yanapaswa kutokea:

1. Sheria zinazofunika matumizi mabaya ya kina

Ni lazima serikali zipitishe sheria zenye ufafanuzi wazi wa matumizi mabaya yanayotokana na AI na kuzingatia ridhaa, dhima kali kwa wahalifu, majukumu ya uondoaji wa haraka wa majukwaa na itifaki za utekelezaji wa mipaka.

2. Mifumo ya haki inayoweza kuchunguza na kushtaki

Utekelezaji wa sheria unahitaji mafunzo, rasilimali na uwezo wa kujitolea wa kukusanya na kuhifadhi ushahidi wa kidijitali huku majalada ya uchunguzi wa kidijitali yakishughulikiwa, huku mifumo ya ushirikiano wa kimataifa ikiwa ya haraka, inayofanya kazi na inafaa kwa madhumuni.

3. Majukwaa kuwajibika

Makampuni ya teknolojia lazima yatakwazwe kisheria kufuatilia na kuondoa maudhui yenye matusi ndani ya muda wa lazima, kushirikiana na wasimamizi wa sheria na kukabiliana na matokeo halisi ya kifedha yanaposhindwa kuchukua hatua.

4. Msaada wa kweli kwa waathirika

Utekelezaji wa sheria waliofunzwa, wenye taarifa za kiwewe na wataalamu wa sheria na usaidizi wa bure wa kisheria unapaswa kupatikana.

5. Elimu inayozuia unyanyasaji

Elimu ya kidijitali, ikiwa ni pamoja na elimu ya idhini, usalama mtandaoni na nini cha kufanya unapopitia unyanyasaji, inahitaji kuanza mchanga na kufikia kila mtu kwani kuzuia ni muhimu kama vile kushtakiwa.

UN Women anaonya hili sio shida ya mtandao: “Ni shida ya ulimwengu.”

  • katika kisa cha hivi majuzi cha hali ya juu, mwandishi wa habari wa Uingereza Daisy Dixon aligundua picha zake za ngono zilizotolewa na AI kwenye X mnamo Desemba 2025, iliyoundwa kwa kutumia zana ya jukwaa la Grok AI; ilichukua siku kwa jukwaa kuzuia utendakazi, huku matumizi mabaya yakiendelea kuenea
  • unyanyasaji wa kina unaweza kutumika kama kichocheo cha mtandaoni kwa kinachojulikana kama “uhalifu unaozingatia heshima” katika miktadha fulani ya kitamaduni, ambapo ukiukaji wa kanuni za heshima kwenye mifumo ya kidijitali unaweza kusababisha unyanyasaji wa kimwili dhidi ya wanawake au hata kifo.
  • zaidi ya nusu ya wahasiriwa wa uwongo huko Merika la Amerika walifikiria kujiuakulingana na utafiti wa hivi karibuni

Wakati huo huo, mamlaka machache yanaanza kuchukua hatua:

  • Brazil ilirekebisha kanuni zake za uhalifu mwaka wa 2025, na kuongeza adhabu kwa kusababisha unyanyasaji wa kisaikolojia dhidi ya wanawake wanaotumia AI au teknolojia nyingine kubadilisha taswira au sauti zao.
  • ya Umoja wa Ulaya Kitendo cha akili bandia (AI) kinaweka majukumu ya uwazi karibu na bandia za kina
  • The UingerezaSheria ya Usalama Mtandaoni inakataza kushiriki picha za lugha chafu zilizodanganywa kidijitali, lakini haishughulikii uundaji wa bandia za kina na haiwezi kutumika pale ambapo nia ya kusababisha huzuni haiwezi kuthibitishwa.
  • ya Marekani Sheria ya Take It Down inashughulikia kwa uwazi picha za karibu zinazozalishwa na AI na inahitaji kuondolewa kwa jukwaa ndani ya saa 48.