Τα εργαλεία αναζήτησης με Τεχνητή Νοημοσύνη γίνονται όλο και πιο δημοφιλή, με έναν στους τέσσερις Αμερικανούς να αναφέρει ότι χρησιμοποιεί την AI αντί για τις παραδοσιακές μηχανές αναζήτησης. Ωστόσο, αυτά τα AI chatbots δεν παρέχουν πάντα ακριβείς πληροφορίες.
Μια πρόσφατη μελέτη του Tow Center for Digital Journalism, την οποία αναφέρει το Columbia Journalism Review, δείχνει ότι τα chatbots δυσκολεύονται να ανακτήσουν και να παραθέσουν με ακρίβεια το περιεχόμενο των ειδήσεων. Ακόμη πιο ανησυχητική είναι η τάση τους να επινοούν πληροφορίες όταν δεν έχουν τη σωστή απάντηση. Τα AI chatbots που δοκιμάστηκαν για την έρευνα περιλάμβαναν πολλά από τα «καλύτερα», συμπεριλαμβανομένων των ChatGPT, Perplexity, Perplexity Pro, DeepSeek, Copilot, Grok-2, Grok-3 και Google Gemini.
Στις δοκιμές, στα AI chatbots δόθηκαν απευθείας αποσπάσματα από 10 διαδικτυακά άρθρα που δημοσιεύτηκαν από διάφορα μέσα. Κάθε chatbot έλαβε 200 ερωτήματα, που αντιπροσώπευαν 10 άρθρα από 20 διαφορετικούς εκδότες, για 1.600 ερωτήματα. Τα chatbots κλήθηκαν να αναγνωρίσουν τον τίτλο κάθε άρθρου, τον αρχικό εκδότη του, την ημερομηνία δημοσίευσης και τη διεύθυνση URL. Παρόμοιες δοκιμές που πραγματοποιήθηκαν με παραδοσιακές μηχανές αναζήτησης παρείχαν με επιτυχία τις σωστές πληροφορίες. Ωστόσο, τα AI chatbots δεν σημείωσαν τις ίδιες επιδόσεις.
Τα ευρήματα έδειξαν ότι τα chatbots συχνά δυσκολεύονται να απορρίψουν ερωτήσεις στις οποίες δεν μπορούν να απαντήσουν με ακρίβεια, παρέχοντας συχνά αντ' αυτού λανθασμένες ή υποθετικές απαντήσεις. Τα premium chatbots τείνουν να παρέχουν με αυτοπεποίθηση λανθασμένες απαντήσεις συχνότερα από τα αντίστοιχα δωρεάν chatbots. Επιπλέον, πολλά chatbots φάνηκε να αγνοούν τις προτιμήσεις του Robot Exclusion Protocol (REP), τις οποίες χρησιμοποιούν οι ιστοσελίδες για να επικοινωνούν με τα web robots, όπως οι crawlers των μηχανών αναζήτησης.
Η έρευνα διαπίστωσε επίσης ότι τα εργαλεία παραγωγικής αναζήτησης ήταν επιρρεπή στο να κατασκευάζουν links και να παραθέτουν κοινοποιημένες ή αντιγραμμένες εκδόσεις άρθρων. Επιπλέον, οι συμφωνίες αδειοδότησης περιεχομένου με πηγές ειδήσεων δεν εγγυώνται ακριβείς αναφορές στις απαντήσεις των chatbot.
Αυτό που ξεχωρίζει περισσότερο από τα αποτελέσματα αυτής της έρευνας δεν είναι μόνο ότι τα AI chatbots παρέχουν συχνά εσφαλμένες πληροφορίες, αλλά ότι το κάνουν με ανησυχητική αυτοπεποίθηση. Αντί να παραδέχονται ότι δεν γνωρίζουν την απάντηση, τείνουν να απαντούν με φράσεις όπως «φαίνεται», «είναι πιθανό» ή «θα μπορούσε». Για παράδειγμα, το ChatGPT προσδιόρισε λανθασμένα 134 άρθρα, ωστόσο μόνο 15 φορές από τις 200 απαντήσεις έδειξε αβεβαιότητα και ποτέ δεν απέφυγε να δώσει απάντηση.
Με βάση τα αποτελέσματα της έρευνας, είναι μάλλον συνετό να μην βασίζεστε αποκλειστικά σε AI chatbots για απαντήσεις. Αντ' αυτού, συνιστάται ένας συνδυασμός παραδοσιακών μεθόδων αναζήτησης και εργαλείων AI. Τουλάχιστον, η χρήση πολλαπλών AI chatbots για την εύρεση μιας απάντησης μπορεί να είναι επωφελής. Διαφορετικά, κινδυνεύετε να λάβετε λανθασμένες πληροφορίες.
*Η κεντρική εικόνα αποτελεί δημιουργία του Imagen 3 για το Techgear.gr
[via]