Zgjerimi i mjeteve si ChatGPT ka hapur mundësi të reja për ndërveprim, duke përfshirë një përdorim gjithnjë e më të zakonshëm: atë të personit që i beson emocionalisht. Megjithatë, implikimet e besimit të detajeve intime në një sistem të automatizuar gjuhësor kanë ngritur alarmin tek kompania që e zhvilloi atë, OpenAI.
Sot, shumë njerëz gjejnë në modelet e inteligjencës artificiale një hapësirë për të shprehur konflikte personale ose për të marrë udhëzime mbi tema të ndjeshme. Falë aftësisë së tyre për të gjeneruar përgjigje bazuar në baza të dhënash të gjera, këto sisteme mund të simulojnë një bisedë me një specialist. Megjithatë, kjo afërsi e dukshme mund të jetë mashtruese.
Një bisedë pa garanci për privatësinë
Gjatë një interviste në podkastin This Past Weekend me Theo Von, CEO i OpenAI, Sam Altman, ndau shqetësimin e tij se si disa njerëz, veçanërisht të rinjtë, po përdorin ChatGPT për të folur rreth marrëdhënieve romantike, problemeve emocionale ose dilemave ekzistenciale.
Altman ishte i bindur: në këto ndërveprime, nuk ka mbrojtje ligjore për të garantuar konfidencialitetin e informacionit, siç ka në marrëdhënien midis pacientit dhe terapistit ose midis klientit dhe avokatit. Ekzekutivi vuri në dukje se ende nuk janë zhvilluar mekanizma ligjorë për të mbrojtur privatësinë e atyre që përdorin inteligjencën artificiale sikur të ishin duke biseduar me një profesionist njerëzor.
Ky boshllëk rregullator i lë përdoruesit të ekspozuar, pasi të dhënat e përbashkëta mund të mos jenë të mbrojtura plotësisht nga kërkesat ose hetimet gjyqësore.
Rreziqe të fshehura në situata të cenueshme
Shqetësime në lidhje me përdorimin e këtyre sistemeve në kontekste të ndjeshme janë ngritur edhe nga komuniteti akademik. Një raport i kohëve të fundit nga Universiteti i Stanfordit paralajmëroi se modelet gjuhësore si ChatGPT mund të gjenerojnë përgjigje të papërshtatshme ose edhe të rrezikshme kur pyeten për problemet e shëndetit mendor.
Sipas studiuesve, ekziston rreziku që inteligjenca artificiale të mos arrijë të identifikojë shenja paralajmëruese, të tilla si mendimet vetëvrasëse, ose, anasjelltas, të vërtetojë keqkuptimet në kohë të cenueshmërisë së lartë emocionale.
OpenAI, nga ana e saj, ka pranuar sfidat ligjore që lidhen me privatësinë e të dhënave. Në një deklaratë zyrtare , kompania iu përgjigj një urdhri gjykate, të cilin e konsideroi një “tejkalim” që mund ta detyronte të zbulonte informacion të mbrojtur. Nëse ndërmerren veprime të tilla, ato do të hapnin derën për padi që do të kompromentonin më tej sigurinë e të dhënave të përdoruesve.
