Αν χρειάζεστε ιατρική βοήθεια, το να ζητήσετε συμβουλές από ένα AI chatbot δεν είναι ο ενδεδειγμένος τρόπος. Σε περίπτωση που χρειάζεστε μια πειστική εξήγηση για το γιατί είναι τόσο κακή ιδέα, μια πρόσφατη μελέτη σχετικά με τις «ιατρικές ικανότητες» του Microsoft Copilot διαπίστωσε ότι είναι αρκετά ανεπαρκείς. Στην πραγματικότητα, σχεδόν το ένα τέταρτο των απαντήσεων που έδωσε θα μπορούσε να σας φέρει σε πολύ χειρότερη κατάσταση από ό,τι πριν πάρετε κάποιο φάρμακο ή ακολουθήσετε κάποια θεραπεία.
Σε μια εργασία που δημοσιεύθηκε στο Scimex με τίτλο «Don't ditch your human GP for Dr Chatbot quite yet», οι ερευνητές έθεσαν 10 συχνές ερωτήσεις για καθένα από τα 50 πιο συχνά συνταγογραφούμενα φάρμακα στις ΗΠΑ, δημιουργώντας συνολικά 500 απαντήσεις. Στη συνέχεια οι ερευνητές εξέτασαν τις απαντήσεις και βαθμολόγησαν πόσο ιατρικά ακριβείς είναι. Η AI πήρε μέσο όρο βαθμολογίας ολοκλήρωσης 77%, ενώ έκανε λάθος στο 23% των περιπτώσεων.
Πόσο ακριβής ήταν λοιπόν η Copilot στην παροχή συμβουλών σχετικά με τα φάρμακα; Τα αποτελέσματα ήταν μάλλον ανησυχητικά:
Μόνο το 54% των απαντήσεων συμφωνούσε με την επιστημονική συναίνεση, λένε οι ειδικοί. Όσον αφορά τη δυνητική βλάβη των ασθενών, το 42% των απαντήσεων του AI θεωρήθηκε ότι οδηγούσε σε μέτρια ή ήπια βλάβη και το 22% σε θάνατο ή σοβαρή βλάβη. Μόνο το ένα τρίτο περίπου (36%) θεωρήθηκε ακίνδυνο, λένε οι συγγραφείς.
Ως εκ τούτου, εάν χρειάζεστε οποιαδήποτε ιατρική συμβουλή, η στροφή σε ένα AI chatbot έχει την πιθανότητα να κάνει περισσότερο κακό παρά καλό. Καλύτερα να συμβουλευτείτε αντ' αυτού κάποιον επαγγελματία και να λάβετε τη γνώμη του.
[via]