Zhromažďuje umelá inteligencia vaše dáta? 

Rapídny vzostup generatívnej umelej inteligencie (AI) vytvoril skutočnú technologickú senzáciu vďaka produktom, ktoré sú zamerané na používateľa. Medzi najpopulárnejšie patrí napríklad ChatGPT od OpenAI, Dall-E alebo Midjourney.

Šírenie používateľsky prívetivej umelej inteligencie medzi milióny ľudí sa však spája s tým, že používatelia ignorujú riziká, ktoré tieto projekty predstavujú pre ich súkromie. Drvivá väčšina ľudí jednoducho nerieši, aké dáta týmto firmám ponúkajú používaním ich produktov. 

Túto problematiku však už začínajú adresovať medzinárodné vlády a významné technologické osobnosti. Taliansko vydalo dočasný zákaz ChatGPT s odvolaním sa na obavy o súkromie a bezpečnosť, čo môže inšpirovať podobné zablokovanie aj v Nemecku. V súkromnom sektore stovky výskumníkov a technologických lídrov v oblasti umelej inteligencie vrátane Elona Muska a Steva Wozniaka podpísali otvorený list, v ktorom vyzývajú na šesťmesačné moratórium na vývoj umelej inteligencie nad rámec GPT-4.

Pomerne rýchle opatrenia v snahe obmedziť nezodpovedný vývoj umelej inteligencie sú vítané, no existuje širšie spektrum hrozieb, ktoré AI predstavuje. Týkajú sa hlavne ochrany súkromia a bezpečnosti údajov používateľov, ktoré umelá inteligencia zhromažďuje. Aj keď túto problematiku verejnosť nerieši tak výrazne ako iné, nie je o nič menej dôležitá.

Mohlo by vás zaujímať: ChatGPT: Všetko, čo potrebujete vedieť o chatbote s umelou inteligenciou.

Máme sa čoho obávať?

Hoci by bolo ľahké povedať, že projekty od OpenAI a ďalšie produkty nedávneho „AI-Boom-u“ sú ako jediné zodpovedné za problémy spojené s narušovaním ochrany osobných údajov, nie je to tak. Táto téma sa začala rozoberať dávno predtým, ako sa dostala do povedomia širokej verejnosti. Škandály týkajúce sa ochrany osobných údajov vo svete umelej inteligencie sa vyskytli ešte skôr, ako bola umelá inteligencia dostupná komukoľvek.

Len minulý rok bol firme Clearview AI, ktorá sa zaoberá rozpoznávaním tváre na základe umelej inteligencie, zakázaný predaj technológie rozpoznávania tváre súkromným podnikom v Spojených štátoch. Je to spoločnosť, ktorej produkt údajne využívajú tisíce vlád a orgánov činných v trestnom konaní s obmedzenou informovanosťou verejnosti. 

Clearview tiež dostala pokutu 9,4 milióna dolárov v Spojenom kráľovstve za svoju nezákonnú databázu na rozpoznávanie tvárí. Kto hovorí, že projekty vizuálnej umelej inteligencie zamerané na spotrebiteľov, ako je Midjourney alebo iné, sa nemôžu použiť na podobné účely?

Problémom je, že už sa tak stalo. Množstvo nedávnych deepfake škandálov týkajúcich sa pornografie či falošných správ vytvorených prostredníctvom produktov umelej inteligencie len zvýšilo naliehavosť ochrany používateľov pred zneužívaním umelej inteligencie. Vychádza sa z hypotetického konceptu digitálneho napodobňovania a robí sa z neho veľmi reálna hrozba pre bežných ľudí a vplyvné verejné osobnosti.
(deepfake – technológia, ktorá pomocou umelej inteligencie dokáže do už existujúceho videa vložiť tvár konkrétneho človeka)

Generatívne modely umelej inteligencie sa zásadne spoliehajú na nové a existujúce údaje, ktoré budujú a posilňujú ich schopnosti a použiteľnosť. Je to jeden z dôvodov, prečo ChatGPT funguje tak pôsobivo. Ako už bolo povedané, model, ktorý sa spolieha na nové dátové vstupy, potrebuje tieto údaje odniekiaľ získať, a súčasťou toho budú nevyhnutne aj osobné údaje ľudí, ktorí ho používajú. A takéto množstvo údajov sa dá ľahko zneužiť, ak sa k nim dostanú centralizované subjekty, vlády alebo hackeri.

Zistite viac: Budúcnosť umelej inteligencie

Čo s tým môžu robiť používatelia a spoločnosti?

Stále viac a viac pozornosti riadiacich orgánov krajín, vývojárov a odborníkov smeruje k regulácii používania umelej inteligencie či už zo strany používateľov alebo spoločností, ktoré tieto modely vlastnia. Vzniká však otázka, či to stačí.

Taliansky zákaz ChatGPT nie je prvým zásahom, ktorý vlády podnikli proti umelej inteligencii. Európska únia a Brazília prijímajú zákony, ktoré zavádzajú sankcie na určité typy používania a vývoja AI. Potenciál hrozieb spojených s únikom osobných údajov pri používaní generatívnej umelej inteligencie rovnako vyvolal aj legislatívne opatrenia kanadskej vlády.

Problém úniku a zneužívania osobných dát kvôli AI je pomerne závažný, a to až do takej miery, že musela zasiahnuť aj organizácia OpenAI. Ak ste pred niekoľkými týždňami otvorili ChatGPT, mohli ste si všimnúť, že funkcia histórie chatu bola vypnutá. Spoločnosť OpenAI túto funkciu dočasne vypla z dôvodu závažného problému s narušením súkromia. Šlo o zobrazovanie výziev chatbota cudzích ľudí a odhalili sa aj súkromné informácie o platbách.

Mohlo by vás tiež zaujímať: Generálny riaditeľ OpenAI Sam Altman je za reguláciu umelej inteligencie

Spoločnosti, ktoré sa venujú vývoju umelej inteligencie, by mali dbať na ochranu osobných údajov, no zatiaľ neexistujú regulácie, ktoré by sa zaoberali touto problematikou do hĺbky, keďže umelá inteligencia je stále novým odvetvím vo svete technológií.

Čo sa týka používateľov, je veľmi dôležité, aby si každý dával pozor na informácie, ktoré s chatbotom zdieľa. Užívatelia sú zatiaľ sami zodpovední za to, aby si ustrážili svoje osobné údaje.

Pre AI však stále platí tvrdenie, že keď používate bezplatný produkt, vaše osobné údaje sú produktom. To isté môžeme povedať aj napríklad o sociálnych sieťach alebo iných platformách. Podľa toho by ste mali prehodnotiť, akým projektom AI venujete svoj čas a na čo umelú inteligenciu vlastne používate. 

ChatGPT dosiahol 100 miliónov používateľov len dva mesiace po svojom spustení, čo je ohromujúce číslo, ktoré jasne naznačuje, že naša digitálna budúcnosť bude využívať umelú inteligenciu. Napriek týmto číslam však umelá inteligencia ešte nie je všadeprítomná. Regulačné orgány a spoločnosti by to mali využiť vo svoj prospech a proaktívne vytvárať priestor pre zodpovedný a bezpečný vývoj AI namiesto toho, aby hasili škandály projektov až vtedy, keď sa stanú príliš veľkými na to, aby ich bolo možné kontrolovať.

Zistite viac o konkurencii chatbotu s umelou inteligenciou od spoločnosti Google.

V súčasnej podobe nie je vývoj generatívnej AI vyvážený medzi ochranou a pokrokom, ale stále je čas nájsť správnu cestu, ktorá zabezpečí, že informácie o používateľoch a ich súkromie zostanú prioritou.

Ohodnoťte článok

Priemerné hodnotenie 5 / 5. Hodnotení: 1

Ešte žiadne hodnotenie!

Author

  • Marek Kalina

    Marek sa venuje investovaniu, podnikaniu a spoznávaniu sveta. Svoje zručnosti a vedomosti zdokonaľoval počas štúdia na Ekonomickej univerzite v Bratislave a Univerzite Martina Luthera v Halle-Wittenbergu. Marek má cit pre investičné príležitosti, aktívne investuje od svojich univerzitných čias a pri investovaní uplatňuje dlhodobý prístup, pričom sa zvyčajne zaväzuje k päťročnému alebo dlhšiemu investičnému horizontu. Jeho rozmanité investičné portfólio zahŕňa akcie, kryptomeny, nehnuteľnosti a online stránky, čo odráža jeho záväzok k diverzifikácii a riadeniu rizík.

Zdielaj to: