Editorial / Kujdes! Intelegjenca Artificiale po i merr “në qafë” shumë njerëz!

Nga B.M
65 e lexuar
A+ A-
Rivendos

Shkup, 17 prill, Zhurnal.mk – Hulumtimet e fundit kanë treguar se Chatbot-et (aplikacioneve që japin përgjigje duke përdorur inteligjencën artificiale) të dështojnë të japin përgjigje të saktë kur përdoren për të bërë diagnoza mjekësore, veçanërisht kur përballen me informacion të paplotë. Studimi i Mass General Brigham me bazë në Massachusetts thekson se rreziqet janë shumë të larta kur qytetarët pyesin intelegjencën artificiale për diagnozat mjekësore e sidomos kur ata mbështeten tek këto aplikacione si mjekë digjital. Përveç kësaj, njerëzit po shpërndajnë shumë informacione personale që pastaj i bëjnë këto aplikacione të dinë edhe gjërat më intime për një person, shkruan “Zhurnal.mk..

IA nuk bëhet mjeku yt digjital!

Studimi zbulon se modelet kryesore të aplikacioneve kanë vështirësi të sugjerojnë një gamë diagnozash të mundshme kur të dhënat e pacientëve janë të kufizuara, duke u ngushtuar shpesh shumë shpejt në një përgjigje të vetme.

Rezultatet tregojnë një kufizim në inteligjencën artificiale sepse chatbot-et mund të identifikojnë gjendje të mundshme pasi një rast të specifikohet plotësisht, ndërsa ato janë më pak të besueshme në fazat e hershme dhe më të pasigurta të arsyetimit klinik.

Gjetjet nxjerrin në pah rreziqet e mbështetjes vetëm në teknologji për të identifikuar problemet shëndetësore, veçanërisht në rastet kur të dhënat nga përdoruesit mund të jenë të paqarta ose të fragmentuara.

Studimi i Mass General Brigham me bazë në Massachusetts u publikua në Jama Netëork Open, ku u testuan modelet e IA-së duke përdorur 29 skica klinike bazuar në një tekst standard referimi mjekësor.

Eksperimenti përfshinte zbulimin hap pas hapi të të dhënave, duke përfshirë historinë e sëmundjes aktuale, gjetjet e ekzaminimit fizik dhe rezultatet laboratorike. Studiuesit paraqitën pyetjet diagnostikuese të LLM-ve (Një model i gjuhës së madhe kompjuteristike – LLM) dhe matën shkallën e dështimit të tyre, të përcaktuar si përqindja e pyetjeve që nuk u përgjigjën plotësisht saktë.

Studiuesit vlerësuan 21 LLM, duke përfshirë modelet kryesore nga OpenAI, Anthropic, Google, xAI dhe DeepSeek. Aty u zbulua se shkallët e dështimit tejkaluan 80 përqind për të gjitha modelet kur ata kishin nevojë të bënin të ashtuquajturën diagnozë diferenciale – kur mungonte informacioni i plotë i pacientit.

Shkallat e dështimit ranë në më pak se 40 përqind për diagnozat përfundimtare me të dhëna më të plota, me performuesit më të mirë që tejkalonin 90 përqind saktësi.

Claude është i trajnuar për t’i drejtuar njerëzit që bëjnë pyetje mjekësore profesionistëve. Gemini është projektuar për të bërë të njëjtën gjë dhe ka përkujtues të integruar në aplikacionin e tij për të nxitur përdoruesit të kontrollojnë dy herë informacionin, shkruan “Zhurnal.mk”.

IA nuk e ndjen sëmundjen e pacientit

Pas këtij studimi janë ngritur pikëpyetjet nëse duhet tu besohet këtyre aplikacioneve. Shumica prej aplikacioneve të intelegjencës artificiale kanë dalë me sqarime se nuk duhet të pranohen mendimet e tyre. OpenAI ka sqaruarse shërbimet e saj nuk duhet të përdoren për të ofruar këshilla mjekësore që kërkojnë një licencë pa përfshirjen e duhur profesionale. Kompanitë që kanë zhvilluar formulime më të specializuara mjekësore janë Articulate Medical Intelligence Explorer (AMIE) dhe MedFound i Google-s.

Por edhe pse këto chatbote kishin info të majftueshme, ato sërish nuk kishin gjasa të ishin në gjendje të përputheshin me mënyrën se si vlerësimet klinike të mjekëve “mbështeten shumë në pamjen dhe ndjesinë e pacientit”, shkruan “Zhurnal.mk”.

Chatbot-et dinë shumë për neve!

Përveç pjesës së shëndetit, shumica e njerëzve nëpër të ashtuquajturit chatbot bëjnë pyetje që duken të zakonshme të përshtatura sipas nevojave të përdoruesit, dhe përgjigjet kursejnë shumë kohë. Shumë prej tyre pyesin për detyra shtëpie, biografi, për ide biznesi, transferta bankare dhe investime etj., por në secilin prej këtyre shembujve, këtyre aplikacioneve u jepen të dhëna të personalizuara.

Surfshark, një nga kompanitë kryesore të sigurisë kibernetike në botë, ka analizuar 10 chatbot-et më të mira. Raporti i fundit, i publikuar në fund të marsit, tregon të dhëna mbresëlënëse: mesatarisht, çdo chatbot mbledh 14 nga një total prej 35 llojesh të dhënash që zakonisht konsiderohen private.
Shumica e informacionit mblidhet nga Meta AI — 33 nga 35 llojet e mundshme, thotë raporti. Meqenëse nuk është një aplikacion i veçantë, por është pjesë e platformave të Mark Zuckerberg, ky robot ka qasje në informacionin më intim.

Mbetet i vetmi aplikacion që mbledh të dhëna në kategorinë e informacionit financiar. Së bashku me Google Gemini, ai mbledh gjithashtu informacione të ndjeshme: origjinën racore ose etnike, orientimin seksual, të dhënat e shtatzënisë, besimet fetare ose politike, madje edhe të dhënat biometrike.
Gemini i Google mbledh 23 lloje të dhënash. Rrallë, si çdo robot tjetër, ai këmbëngul në vendndodhjen e saktë. Pas vetëm disa përdorimesh, ai tashmë e di emrin, adresën, email-in, numrin e telefonit dhe të gjithë historikun tuaj të kërkimit në internet.

Rritja më e madhe në oreksin e të dhënave është me ChatGPT. Nga 10 vitin e kaluar, ky bot tani mbledh 17 lloje të ndryshme të dhënash, duke përfshirë të dhëna shëndetësore, fitnesi dhe audio. Ndërsa shumica e tyre janë për funksionalitetin e aplikacionit, ato përdoren gjithashtu për analiza dhe marketing. Është e rëndësishme të theksohet se të dhënat e shëndetit dhe të reklamimit nuk kërkohen që aplikacioni të funksionojë.

Në të kundërt, praktikat e Cloud kanë mbetur të pandryshuara — ai mbledh 13 lloje të dhënash, të cilat janë të gjitha thelbësore për funksionimin e tij. DeepSic i Kinës gjithashtu mbledh nën mesataren (13 lloje), por me një rrezik të madh: të dhënat ruhen në servera në Kinë.

Të gjitha këto të dhëna tregojnë se njerëzit me ose pa vetëdije po shpërndajnë shumë informacione personale, ndonjëherë edhe intime, dhe në këtë formë aplikacionet e intelegjencës artificiale dinë më shumë se çduhet për një person. Andaj, edhe pse aplikacionet e intelegjencës artificiale janë të dobishme për hulumtime dhe informacione të nevojshme, megjithatë duhet secili të ketë kujdes se çfarë shpërndan në këto rrjete dhe si e trajton IA-në. Fatkeqësisht, të gjitha hulumtimet dhe statistikat tregojnë se për shumë gjëra nuk ka nevojë të shpërndahen info nëpërmjet intelegjencës artificiale, e sidomos për probleme të ndjeshme personale, shëndetësore e dhe sekrete, shkruan “Zhurnal.mk”.

artikuj të ndërlidhura

Kjo faqe interneti përdor cookies për të përmirësuar përvojën tuaj. Ne do të supozojmë se jeni dakord me këtë, por mund të çregjistroheni nëse dëshironi. Pranoj Lexo më tepër