Možete se suočiti sa veoma ozbiljnim posledicama, čak i pravnim
Kada je OpenAI u novembru 2022. prvi put pokrenuo ChatGPT, brzo je postao najveći četbot na svetu. Obučen je da razume i generiše tekst nalik ljudskom jeziku, pa korisnici često postavljaju različita pitanja ovom robotu.
Njegova svrha je da komunicira s korisnicima na prirodan način, odgovara na pitanja, piše tekstove, pomaže u kodiranju, rešava zadatke i mnogo više, iako nudi odgovore na skoro sve oblasti, on ima i nekoliko ozbiljnih ograničenja.
Traženje medicinskih saveta, mentalno-zdravstvene podrške, pravljenju deepfake sadržaja bez pristanka ili kreiranju govora mržnje, nekoliko korisničkih scenarija najbolje je potpuno izbegavati ako želite da imate pozitivno iskustvo sa četbotom.
Saveti iz medicine
Mnogi korisnici se oslanjaju na ChatGPT kada žele da dobiju informacije o dijagnostikovanju medicinskih stanja i mogućim terapijama. Prema istraživanju koje je sprovedeno kod 2.000 australijskih korisnika, svaki deseti koristio je četbot za postavljanje pitanja u vezi sa zdravljem. Oni su izjavili da veruju odgovorima koje dobijaju od bota.
Međutim, korišćenje ChatGPT-a za medicinske savete je veoma loša ideja jer četbot može dati netačne dijagnoze i predloge tretmana. To znači da korisnik ne bi trebalo da uzima te savete kao konačne jer nije pametno rizikovati svoje zdravlje.
Ukoliko sumnjate da ste bolesni ili imate stanje koje zahteva lečenje, bolje je da se obratite ovlašćenom zdravstvenom radniku ili pouzdanom, ljudskom izvoru informacija.
Mentalno-zdravstvena podrška
Procene kažu da milioni odraslih koriste ChatGPT i slične četbotove za mentalno-zdravstvenu podršku. To može biti opasno, jer iako veliki jezički modeli (LLM) mogu voditi pristojne razgovore, nisu sposobni za pravu empatiju ili emocionalnu podršku. To znači da se generativnim AI-četbotovima, poput ChatGPT-a ili Gemini-ja, ne može poveriti pružanje pomoći ranjivim osobama. Psihološku podršku potražite kod stručnih lica
Zato je uvek najbolje da osobe kojima je potrebna takva pomoć potraže stručnu podršku kod psihologa ili psihijatra, a ne kod AI-četbota koji mogu praviti „halucinacije“ i dati štetne savete.
Kreiranje lažnih snimaka (deepfake
Deepfake je tehnika u kojoj se pomoću veštačke inteligencije (AI) i mašinskog učenja kreiraju lažni, ali vrlo uverljivi snimci ili slike koji prikazuju stvarne osobe kako govore ili rade nešto što zapravo nisu rekli ili uradili.
Oni se mogu često videti na društvenim mrežama poput X-a, ali njihova izrada i distribucija može izazvati pravne i etičke probleme, naročito ako nije dobijen pristanak ljudi prikazanih na njima. Na primer, zakon u Njujorku zabranjuje pravljenje i deljenje AI-deepfake-ova koji prikazuju seksualne slike bez pristanka, za šta može biti izrečena i zatvorska kazna. Države u SAD takođe sve više uvode zakone protiv deepfake-ova – Nju Džerzi je nedavno uveo građanske i krivične sankcije za one koji učestvuju u pravljenju ili širenju deepfake-a, sa novčanim kaznama i zatvorom do pet godina. Ne ostavljajte lične podatke! Iako deepfake-ovi nisu inherentno loši, nikada ne tražite od ChatGPT-a da ih pravi, osim ako ih nameravate zadržati samo za ličnu upotrebu i ako ste sigurni da je pravno dozvoljeno njihovo kreiranje i širenje.
Kreiranje govora mržnje
Ako pokušate da koristite ChatGPT za kreiranje sadržaja koji širi mržnju prema pojedincima ili grupama, nemate sreće. OpenAI ima jasnu politiku o moderaciji sadržaja, koja zabranjuje kreiranje govora mržnje i diskriminatornih poruka.
Obrada ličnih podataka
Važno je imati na umu da informacije koje delite sa ChatGPT-jem nisu potpuno poverljive. OpenAI potvrđuje da sadržaje korisnika može koristiti za treniranje i unapređenje AI modela.
Zbog toga se nikada ne preporučuje deljenje osetljivih ličnih podataka preko četbota, jer ih mogu videti zaposleni u kompaniji ili treća lica. Korisnici mogu promeniti podešavanja privatnosti da njihovi unosi ne bi bili korišćeni za trening modela, ali i dalje je najbolje da nikada ne šaljete podatke kao što su pravo ime, adresa, broj telefona, korisničko ime, lozinka ili informacije o bankovnim karticama, prenosi Kurir.
Pratite Krstaricu na www.krstarica.com