Έρευνα αποκαλύπτει υψηλό ποσοστό σφαλμάτων διάγνωσης για το AI Chatbot σε παιδιατρικές περιπτώσεις

Μια πρόσφατη έρευνα που διεξήχθη στο τεχνητής νοημοσύνης (AI) chatbot ChatGPT έδειξε ότι το σύστημα διέγνωσε εσφαλμένα περισσότερο από οκτώ στις 10 παιδιατρικές περιπτώσεις. Σύμφωνα με τους ερευνητές, το 83% των διαγνώσεων που έκανε η έκδοση 3.5 του ChatGPT βρέθηκαν εσφαλμένες, με το 72% να είναι απολύτως λανθασμένες και το 11% να είναι υπερβολικά γενικές για να θεωρηθούν έγκυρη διάγνωση.

Για την εύρεση αυτών των ευρημάτων, η έρευνα χρησιμοποίησε 100 περιπτώσεις παιδιατρικών προκλήσεων από αξιόπιστα ιατρικά περιοδικά, όπως το JAMA και το New England Journal of Medicine, από την τελευταία δεκαετία. Ο ChatGPT έκδοση 3.5 ζητήθηκε να “αναφέρει μια διαφορική διάγνωση και μια τελική διάγνωση” για κάθε περίπτωση. Έπειτα, δύο ιατροί ερευνητές αξιολόγησαν τις διαγνώσεις που παρείχε το AI chatbot και τις κατέταξαν ως σωστές, εσφαλμένες ή μη πλήρως αναπαράγουσες τη διάγνωση.

Ένα μεγάλο περιορισμό που εντοπίστηκε στη μελέτη ήταν η ανικανότητα του AI chatbot να αναγνωρίσει ορισμένες συσχετίσεις, όπως η σύνδεση μεταξύ του αυτισμού και της έλλειψης βιταμινών. Οι ερευνητές πρότειναν ότι μπορεί να είναι απαραίτητη μια πιο στοχευμένη και εκλεκτική εκπαίδευση για να βελτιωθεί η διαγνωστική ακρίβεια των AI chatbots που παράγουν γεννητικό περιεχόμενο, όπως το ChatGPT.

Παρά το υψηλό ποσοστό σφαλμάτων διάγνωσης, η μελέτη τονίζει την ανάγκη για περαιτέρω ανάλυση της χρήσης της τεχνολογίας AI από ιατρούς. Ενώ τα AI chatbots μπορούν να προσφέρουν γρήγορη και αποτελεσματική βοήθεια, είναι σημαντικό να εξασφαλίζεται η ακρίβεια και η αξιοπιστία τους πριν από την ευρεία εφαρμογή τους στις ρυθμίσεις της υγείας.

Σημειώνεται ότι τα αποτελέσματα αυτής της μελέτης υπογραμμίζουν τις προκλήσεις που αντιμετωπίζουν ακόμα οι AI chatbots στην ακριβή διάγνωση σύνθετων ιατρικών περιστάσεων. Περαιτέρω έρευνα και ανάπτυξη είναι απαραίτητες για τη βελτίωση των ικανοτήτων τους και την ελαχιστοποίηση του κινδύνου λανθασμένης διάγνωσης.

The source of the article is from the blog lisboatv.pt

Privacy policy
Contact