Μπορεί η Τεχνητή Νοημοσύνη να απαντά καλύτερα από έναν γιατρό;

+

Σύμφωνα με μια έρευνα που δημοσιεύτηκε τον Ιούνιο του 2023, η Τεχνητή Νοημοσύνη (ΑΙ) αποκρίθηκε καλύτερα από γιατρούς σε ερωτήσεις χρηστών επί διαφόρων θεμάτων υγείας.

Με μια πρώτη ματιά, η ιδέα ότι ένα chatbot που χρησιμοποιεί τεχνητή νοημοσύνη μπορεί να είναι σε θέση να παράγει καλές απαντήσεις σε ερωτήσεις ασθενών δεν προκαλεί έκπληξη. Εξάλλου, το ChatGPT καυχιέται ότι πέρασε τις τελικές εξετάσεις για πτυχίο MBA, ότι έγραψε ένα βιβλίο σε λίγες ώρες και ότι συνέθεσε πρωτότυπη μουσική.

Αλλά μπορεί να επιδείξει περισσότερη ενσυναίσθηση από τον γιατρό; Πριν φτάσουμε σε βιαστικά συμπεράσματα, πρέπει να αναλύσουμε κάποια πράγματα, λέει ο δρ. Robert H. Shmerling, πρώην κλινικός προϊστάμενος του τμήματος Ρευματολογίας στο Beth Israel Deaconess Medical Center (BIDMC) και σημερινό μέλος της αντίστοιχης σχολής στην Ιατρική Σχολή του Χάρβαρντ.

Ποια καθήκοντα αναλαμβάνει η τεχνητή νοημοσύνη στην υγειονομική περίθαλψη;

Ήδη, ένας ταχέως αναπτυσσόμενος κατάλογος ιατρικών εφαρμογών της τεχνητής νοημοσύνης περιλαμβάνει τη σύνταξη σημειώσεων γιατρού, την πρόταση διαγνώσεων, τη βοήθεια στην ανάγνωση ακτινογραφιών και μαγνητικής τομογραφίας και την παρακολούθηση δεδομένων υγείας σε πραγματικό χρόνο, όπως ο καρδιακός ρυθμός ή το επίπεδο οξυγόνου.

Αλλά η ιδέα ότι οι απαντήσεις που δημιουργούνται από την τεχνητή νοημοσύνη μπορεί να έχουν μεγαλύτερη ενσυναίσθηση από τους πραγματικούς γιατρούς μου φάνηκε καταπληκτική αλλά και λυπηρή. Πώς θα μπορούσε ακόμη και το πιο προηγμένο μηχάνημα να ξεπεράσει έναν γιατρό στην επίδειξη αυτής της σημαντικής και ιδιαίτερα ανθρώπινης αρετής;

Μπορεί η τεχνητή νοημοσύνη να δώσει καλές απαντήσεις σε ερωτήσεις ασθενών;

Αυτή είναι μια ενδιαφέρουσα ερώτηση.

Φανταστείτε ότι έχετε καλέσει το γραφείο του γιατρού σας με μια ερώτηση σχετικά με ένα από τα φάρμακά σας. Αργότερα μέσα στην ημέρα, ο γιατρός σας καλεί πίσω για να το συζητήσετε.

Τώρα, φανταστείτε ένα διαφορετικό σενάριο: κάνετε την ερώτησή σας μέσω email ή γραπτού κειμένου και μέσα σε λίγα λεπτά λαμβάνετε μια απάντηση που δημιουργείται από έναν υπολογιστή που χρησιμοποιεί AI. Πώς θα συγκρίνονται οι ιατρικές απαντήσεις σε αυτές τις δύο καταστάσεις όσον αφορά την ποιότητα; Και πώς θα μπορούσαν να συγκριθούν από την άποψη της ενσυναίσθησης;

Για να απαντήσουν σε αυτά τα ερωτήματα, οι ερευνητές συνέλεξαν 195 ερωτήσεις και απαντήσεις από ανώνυμους χρήστες ενός διαδικτυακού ιστότοπου κοινωνικής δικτύωσης, οι οποίες τέθηκαν σε γιατρούς που προσφέρθηκαν να απαντήσουν εθελοντικά. Οι ερωτήσεις υποβλήθηκαν αργότερα στο ChatGPT και συλλέχθηκαν οι απαντήσεις του ΑΙ chatbot.

Στη συνέχεια, μια ομάδα τριών γιατρών ή νοσοκόμων βαθμολόγησε και τα δύο σετ απαντήσεων ως προς την ποιότητα και την ενσυναίσθηση. Οι συμμετέχοντες στην επιτροπή ρωτήθηκαν «ποια απάντηση ήταν καλύτερη;» σε μια πενταβάθμια κλίμακα. Οι επιλογές αξιολόγησης για την ποιότητα ήταν: πολύ κακή, κακή, αποδεκτή, καλή ή πολύ καλή. Οι επιλογές αξιολόγησης για την ενσυναίσθηση ήταν: μηδενική ενσυναίσθηση, ελαφριά ενσυναίσθηση, μέτρια ενσυναίσθηση, ενσυναίσθηση και μεγάλη ενσυναίσθηση.

Τι βρήκε η μελέτη;

Τα αποτελέσματα δεν ήταν καν κοντά. Για σχεδόν το 80% των απαντήσεων, το ChatGPT θεωρήθηκε καλύτερο από τους γιατρούς!

  • Καλής ή πολύ καλής ποιότητας απαντήσεις: Το ChatGPT έλαβε αυτήν την αξιολόγηση για το 78% των απαντήσεών του, ενώ οι γιατροί μόλις για το 22% των δικών τους απαντήσεων.
  • Απαντήσεις με ενσυναίσθηση ή πολύ ενσυναίσθηση: Το ChatGPT σημείωσε 45% και οι γιατροί μόλις 4,6%.

Μάλιστα, η έκταση των απαντήσεων ήταν πολύ μικρότερη για τους γιατρούς (μέσος όρος 52 λέξεις) απ’ ό,τι για το ChatGPT (μέσος όρος 211 λέξεις).

Όπως είπα: ούτε καν κοντά! Οπότε, είναι τελικά δικαιολογημένος όλος αυτός ο υπερθετικός θόρυβος για την ΑΙ στον χώρο της διάδρασης με τους πολίτες επί θεμάτων υγείας;

Μη βιάζεστε: Υπάρχουν σημαντικοί περιορισμοί αυτής της έρευνας για την AI

Η μελέτη ΔΕΝ σχεδιάστηκε για να απαντήσει σε δύο βασικά ερωτήματα:

  • Οι απαντήσεις AI προσφέρουν ακριβείς ιατρικές πληροφορίες και βελτιώνουν την υγεία των ασθενών αποφεύγοντας τη σύγχυση ή τη βλάβη;
  • Θα αποδεχτούν οι ασθενείς την ιδέα ότι οι ερωτήσεις που θέτουν στον γιατρό τους μπορεί να απαντηθούν από ένα bot;

Επίσης, η έρευνα είχε κάποιους σοβαρούς περιορισμούς:

  • Αξιολόγηση και σύγκριση απαντήσεων: Οι αξιολογητές εφάρμοσαν μη δοκιμασμένα, υποκειμενικά κριτήρια ποιότητας και ενσυναίσθησης. Είναι σημαντικό ότι δεν αξιολόγησαν την πραγματική ακρίβεια των απαντήσεων. Ούτε οι απαντήσεις αξιολογήθηκαν ως προς την παραποίηση ή ψεύδη, ένα υπαρκτό πρόβλημα που έχει διαπιστωθεί με το ChatGPT.
  • Διαφορά στην έκταση των απαντήσεων: Οι πιο λεπτομερείς απαντήσεις μπορεί να φαίνεται ότι αντικατοπτρίζουν υπομονή και ενσυναίσθηση. Έτσι, οι υψηλότερες βαθμολογίες για την ενσυναίσθηση μπορεί να σχετίζονται περισσότερο με τον αριθμό των λέξεων παρά με την αληθινή ενσυναίσθηση.
  • Ατελής μέθοδος αξιολόγησης: Για να ελαχιστοποιηθεί η μεροληψία, οι αξιολογητές έπρεπε να μην γνωρίζουν εάν η απάντηση προερχόταν από γιατρό ή από το ChatGPT. Αυτή είναι μια κοινή ερευνητική τεχνική που ονομάζεται “τυφλοποίηση” αποτελεσμάτων. Αλλά η επικοινωνία που δημιουργείται από την τεχνητή νοημοσύνη δεν μοιάζει σχεδόν καθόλου με την επικοινωνία από έναν άνθρωπο και οι απαντήσεις της τεχνητής νοημοσύνης ήταν σημαντικά μεγαλύτερες. Έτσι, είναι πιθανό ότι τουλάχιστον για ορισμένες απαντήσεις, οι αξιολογητές καταλάβαιναν πότε η απάντηση ήταν από ΑΙ και πότε από άνθρωπο.

Συμπερασματικά

Θα μπορούσαν οι γιατροί να διδαχτούν κάτι σχετικά με την έκφραση ενσυναίσθησης από τις απαντήσεις που δημιουργούνται από την τεχνητή νοημοσύνη; Πιθανώς. Μπορεί η τεχνητή νοημοσύνη να λειτουργήσει καλά ως εργαλείο συνεργασίας, δημιουργώντας απαντήσεις που εξετάζει και αναθεωρεί ένας γιατρός; Στην πραγματικότητα, ορισμένα ιατρικά συστήματα χρησιμοποιούν ήδη την τεχνητή νοημοσύνη με αυτόν τον τρόπο.

Ωστόσο, φαίνεται πρόωρο να βασιστούμε στις απαντήσεις τεχνητής νοημοσύνης επί ερωτήσεων ασθενών χωρίς να έχουμε ακλόνητη απόδειξη επί ακρίβειας αυτών των πληροφοριών και χωρίς την άμεση επίβλεψη των ασθενών από επαγγελματίες υγείας. Αυτή η μελέτη ΔΕΝ σχεδιάστηκε για να απαντήσει σε κανένα από αυτά τα δύο θέματα.

Και παρεμπιπτόντως, το ChatGPT συμφωνεί: Το ρώτησα αν θα μπορούσε να απαντήσει σε ιατρικές ερωτήσεις καλύτερα από έναν γιατρό. Η απάντησή του ήταν όχι.

Θα χρειαστούμε περισσότερη έρευνα για να μάθουμε πότε είναι ώρα να αφήσουμε την AI ελεύθερη να απαντά σε ερωτήσεις ασθενών. Μπορεί να μην είμαστε ακόμα σε αυτό το σημείο, αλλά πλησιάζουμε.

Πηγή: harvard.edu