Studija koju su objavili akademici sa Univerziteta u Oksfordu otkrila je da neki pružaoci usluga koriste generativne AI (Gen AI) chat botove kao što je ChatGPT za kreiranje planova njege za pacijente.
Studija poziva njegovatelje, zajedno sa ostalima koji rade u zdravstvenom sektoru, da budu oprezni u korišćenju AI alata koji nijesu regulisani. Prema istraživanju, to bi moglo da dovede do toga da zdravstveni radnici djeluju na osnovu informacija koje su obmanjujuće, netačne ili pristrasne – što bi kao rezultat dovelo do štete.
Sa ubrzanjem digitalne transformacije, zdravstvena industrija nastavlja da istražuje širok spektar slučajeva upotrebe AI tehnologije, što izaziva pozive za zaštitu.
Predviđa se da će tržište zdravstvene zaštite vještačke inteligencije (AI) porasti sa 11 milijardi američkih dolara (2021.) na više od 187 milijardi dolara do 2030. godine, navodi Statista. Ovo povećanje u zdravstvenom sektoru moglo bi rezultirati nekim značajnim promjenama u načinu rada zdravstvenih radnika, bolnica, farmaceutskih i biotehnoloških kompanija.
Nalazi Oksfordskog univerziteta predstavljaju potencijalni rizik za povjerljivost pacijenata, prema riječima istraživača u ranoj karijeri na Institutu za etiku u vještačkoj inteligenciji u Oksfordu, dr Caroline Green, koja je anketirala organizacije koje brinu o ovoj studiji.
-Ako stavite bilo koju vrstu ličnih podataka u generativni AI chatbot, ti podaci se koriste za obuku jezičkog modela. Ti lični podaci mogu biti generisani i otkriveni nekom drugom – dr Green.
U skladu sa ovim bezbjednosnim zabrinutostima, moglo bi se tvrditi da oslanjanje isključivo na vještačku inteligenciju za uspostavljanje planova pacijenata može dovesti do nestandardne njege, što rezultira etičkim dilemama za organizaciju.
Zaštita osjetljivih podataka u kontekstu zdravstvene zaštite je od vitalnog značaja i stoga studija poziva zdravstvene radnike da budu oprezni kada koriste vještačku inteligenciju.
Pored ovog istraživanja, Univerzitet Oksford takođe završava trofazni projekat koji ima za cilj da smanji pristrasnost u modelima predviđanja zdravlja AI koji su obučeni na osnovu podataka o pacijentima iz stvarnog svijeta.
Pošto se AI obučava i testira korišćenjem postojećih podataka, ako njeni skupovi podataka nijesu dovoljno široki, njegova sposobnost učenja često odražava postojeće pristrasnosti. Ovo može dovesti do diskriminacije na osnovu ličnih podataka, uključujući zaštićene karakteristike kao što su rasa, pol i seksualnost i još mnogo toga.
Iako postoji neizbježna zabrinutost zbog upotrebe vještačke inteligencije u donošenju odluka u zdravstvu, tehnologija ima veliki potencijal da pomogne u poboljšanju liječenja pacijenata.
Posljednjih mjeseci, neke velike tehnološke kompanije su se obavezale da će prepoznati potencijal vještačke inteligencije u zdravstvenoj industriji. Konkretno, ServiceNow se nedavno zalagao za etičke sisteme vještačke inteligencije kako bi ponudio poboljšane rezultate pacijenata i dostavio informacije osoblju kako bi poboljšao njegu i smanjio stope ponovnog prijema pacijenata. aimagazine.com