ChatGPT "bardziej empatyczny" od lekarzy
Eksperci z dziedziny ochrony zdrowia otrzymali od badaczy 200 prawdziwych pytań od pacjentów i 400 odpowiedzi. Na każde pytanie odpowiedziano dwa razy – pierwsza odpowiedź, zaczerpnięta z amerykańskiego portalu medycznego była autorstwa lekarza, drugą wygenerował ChatGPT.
Dalsza część artykułu pod materiałem wideo
Ekspertów poproszono o ocenę jakości informacji oraz poziomu empatii zawartych w obu odpowiedziach. "Wygrała" sztuczna inteligencja, która — zdaniem specjalistów — w aż 79 proc. przypadków udzieliła bardziej empatycznej i lepszej jakościowo porady lekarskiej.
Empatia jest kluczowa w leczeniu
Tymczasem ChatGPT, zapytany o to, czy może być empatyczny, odpowiada zgodnie z prawdą, że "może symulować empatię, ale nie oznacza to, że ma rzeczywiste zdolności empatyczne".
Trudno jednak odróżnić empatię symulowaną od rzeczywistej, zwłaszcza w prowadzonej w formalny sposób komunikacji online. Pacjent, który czuje się zrozumiany, bardziej otwarcie mówi o dolegliwościach, chętniej dzieli się swoimi spostrzeżeniami i wątpliwościami, a tym samym ułatwia i przyspiesza proces diagnostyczny lub leczniczy.
Naukowcy, pracujący pod kierunkiem Johna W. Ayersa z Qualcomm Institute przy University of California w San Diego, przeprowadzili badanie, chcąc zorientować się, czy ChatGPT może pomagać lekarzom w kontakcie z pacjentami. Wyniki są klarowne — może.
Nie pomoże jednak w kontakcie osobistym, a to ten jest kluczowy dla komfortu i chęci współpracy pacjentów. Z badań wynika, że pacjenci prowadzeni przez nieumiejętnie komunikujących się lekarzy rzadziej stosują się do planu leczenia, a przecież na nieskutecznie leczonych chorobach traci cały system.
Umiejętnie wyrażana empatia jest więc jednym ze środków do osiągnięcia skuteczności leczenia. I choć ChatGPT nie wystarczy, może okazać się dla lekarzy cenną ściągawką.
Twoja opinia pozwala nam tworzyć lepsze treści.