Loading...

Κατηγορίες

Τετάρτη 30 Ιουλ 2025
Η Τεχνητή Νοημοσύνη χρησιμοποιείται ολοένα και περισσότερο για την εξαπάτηση της επιστημονικής διάδοσης και την πραγματοποίηση απάτης.
Κλίκ για μεγέθυνση
Το προφίλ της «Δρ. Ρόζμαρι Γκάλμπρεϊθ» στο Facebook: ένα χαρακτηριστικό παράδειγμα ολοένα και πιο εξελιγμένων απατών που χρησιμοποιούν Τεχνητή Νοημοσύνη για να εξαπατήσουν τους πελάτες, οι οποίοι μπορούν να χάσουν όχι μόνο χρόνο και χρήματα, αλλά και την ίδια τους τη ζωή, με ψευδείς υποσχέσεις για θεραπείες και θαυματουργές θεραπείες. Αναπαραγωγή/ The Record
 

Ανοίγετε τα μέσα κοινωνικής δικτύωσης και πέφτετε πάνω σε μια ανάρτηση της Δρ. Ρόζμαρι Γκάλμπρεϊθ, μιας ηγέτιδας στον τομέα της υγειονομικής περίθαλψης στη Φαβινιάνα της Ιταλίας. Το προφίλ της Ρόζμαρι περιλαμβάνει μια φωτογραφία της με λευκή εργαστηριακή ρόμπα, ένα στηθοσκόπιο γύρω από το λαιμό της και περιεχόμενο που παρουσιάζεται με μετρημένη, έγκυρη φωνή. Μιλάει για θαυματουργές θεραπείες, μυστικά συμπληρώματα και επαναστατικές θεραπείες. Το πρόβλημα; Η Ρόζμαρι δεν υπάρχει. Και στην πραγματικότητα, είναι απλώς ένας από τους περισσότερους από 1.000 ψεύτικους λογαριασμούς που εντοπίστηκαν στο META , οι οποίοι δημιουργήθηκαν από τεχνητή νοημοσύνη για την προώθηση θαυματουργών θεραπειών.

Δεν χρειάζεται καν να διασχίσουμε τον ωκεανό. Ο ίδιος ο Δρ. Drauzio Varella έχει επανειλημμένα καταγγείλει πώς οι απατεώνες χρησιμοποιούν το πρόσωπο και τη φωνή του σε βίντεο με τεχνητή νοημοσύνη για να πουλήσουν τα πάντα, από θαυματουργό κολλαγόνο μέχρι συνταγές που υποτίθεται ότι θεραπεύουν την οστεοαρθρίτιδα, την οστεοπόρωση και την ανακούφιση από τον πόνο στο γόνατο . Ο Varella ανέφερε ότι προσπάθησε ακόμη και να επικοινωνήσει με τις μεγάλες τεχνολογικές εταιρείες, αλλά μετά από πολλή επιμονή, κατέληξε στο συμπέρασμα ότι « [Οι μεγάλες τεχνολογικές εταιρείες] απλά δεν νοιάζονται ». Αυτή είναι η αξιοπιστία μιας ζωής αφιερωμένης στην ιατρική, την οποία έχουν καταλάβει αλγόριθμοι σε δευτερόλεπτα.


Βίντεο χρησιμοποιεί το πρόσωπο του Drauzio Varella για να πουλήσει θαυματουργά συμπληρώματα. Αναπαραγωγή/ BBC

Με εργαλεία όπως το Veo 3, τη νέα τεχνητή νοημοσύνη βίντεο της Google, οποιοδήποτε πρόσωπο ή φωνή μπορεί να κλαπεί. Η τεχνητή νοημοσύνη έχει γίνει ένα πινέλο που αναπαράγει πιστά τη στάση της εξουσίας. Αλλά αν η ψεύτικη τέχνη μπερδεύει μόνο τα μουσεία, η ψεύτικη επιστήμη μπορεί να σκοτώσει. Και σε αυτόν τον νέο ψηφιακό χώρο, όπου η εμπιστοσύνη έχει γίνει ένας εκμεταλλεύσιμος πόρος, η επιστημονική επικοινωνία γίνεται στόχος. Ο Drauzio είναι γνωστός, πρωτοπόρος της επιστημονικής επικοινωνίας στην υγεία στη Βραζιλία. Τι συμβαίνει όμως όταν ένα γιατρό μικρής πόλης κλέβει το πρόσωπο, τη φωνή και το CRM του για να υποστηρίξει μια επικερδή αγορά που εκμεταλλεύεται τις παραλείψεις των πλατφορμών;

Όταν η εργαστηριακή ρόμπα γίνεται κοστούμι

Παραμένοντας στον τομέα της υγείας, η εικόνα της ουρολόγου Kgomotso Mathabe , από τη Νότια Αφρική, χρησιμοποιήθηκε σε διαφημίσεις για θεραπείες στυτικής δυσλειτουργίας, με το πρόσωπό της να προστίθεται σε βίντεο και διαφημίσεις που υπόσχονταν αμφίβολες θεραπείες.


Η ψευδής διαφήμιση χρησιμοποιεί το πρόσωπο της Δρς. Kgomotso Mathabe. Αναπαραγωγή/Φύση

Ο Τζόναθαν Σο , ενδοκρινολόγος και αναπληρωτής διευθυντής του Ινστιτούτου Καρδιάς και Διαβήτη Baker (Αυστραλία), έγινε στόχος deepfakes, τα οποία τον κατηγόρησαν ότι επέκρινε τις συνταγές μετφορμίνης και επιτέθηκαν σε συναδέλφους γιατρούς, συνδέοντας το όνομά του με ένα θαυματουργό προϊόν για τον διαβήτη.

Παραπλανητικό περιεχόμενο χρησιμοποιεί το πρόσωπο του Αυστραλού ενδοκρινολόγου Τζόναθαν Σο. Αναπαραγωγή: ABC

Σε ένα παράδειγμα του πώς αποτυπώνεται και ο Τύπος, στην Αυστραλία, ο Norman Swan , παρουσιαστής της εκπομπής 7.30 του ABC, εμφανίστηκε σε ένα deepfake προωθώντας συμπληρώματα για καρδιακές παθήσεις και διαβήτη. Το βίντεο ξεγέλασε ακόμη και τους παρουσιαστές του καναλιού, και οι ειδικοί εκτιμούν ότι αυτές οι απάτες προκάλεσαν απώλειες άνω των 2 δισεκατομμυρίων δολαρίων ΗΠΑ σε μόλις ένα χρόνο.

 

Εδώ, το πρόσωπο και η φωνή του δημοσιογράφου Νόρμαν Σουάν, μιας διασημότητας στην Αυστραλία, χρησιμοποιούνται για την πώληση συμπληρωμάτων διατροφής. Αναπαραγωγή/ News.Au

Το πρόβλημα, ωστόσο, δεν περιορίζεται στην υγειονομική περίθαλψη. Η ακαδημαϊκή αισθητική έχει επίσης υιοθετηθεί. Κείμενα με επίσημη γλώσσα, πολύχρωμα γραφικά, εξελιγμένες παραπομπές και εμφάνιση αξιολογημένη από ομοτίμους κυκλοφορούν σαν να επρόκειτο για νόμιμη επιστημονική έρευνα, αλλά στην πραγματικότητα είναι κομμάτια παραπληροφόρησης. Εργαλεία όπως το ChatGPT, το Gemini ή το Claude μπορούν να δημιουργήσουν πλήρη κείμενα με δομημένες ενότητες, μορφοποίηση άρθρων, ψεύτικες αναφορές, κατασκευασμένα DOI, ακόμη και υποτιθέμενες θεσμικές σχέσεις. Αυτά τα ψεύτικα «έγγραφα» χρησιμοποιούνται για την προώθηση ριζοσπαστικών διατροφών, την άρνηση της υπερθέρμανσης του πλανήτη, τη διαστρέβλωση στατιστικών στοιχείων για τη βία ή τη διάδοση ψεμάτων σχετικά με τα εμβόλια, χρησιμοποιώντας την εμφάνιση ακαδημαϊκής αυθεντίας για να εξαπατήσουν.

Ούτε καν η αγορά των επιστημονικών εκδόσεων δεν έχει ξεφύγει από τον έλεγχο. Η ερευνήτρια Isabela Rocha (UnB) μάλιστα μίλησε στο The Conversation Brasil για το πώς η δημοσίευση ενός βιβλίου με ψευδείς παραπομπές εκθέτει μια αγορά που δίνει προτεραιότητα στο κύρος έναντι της επιστημονικής αυστηρότητας.

Μία από τις πιο ανησυχητικές υποθέσεις προέρχεται από το ίδιο το BBC, το οποίο διερεύνησε πώς χρησιμοποιείται η τεχνητή νοημοσύνη για να εξαπατήσει τα παιδιά με ψεύτικα «επιστημονικά» βίντεο. Η έκθεση αποκάλυψε δεκάδες κανάλια στο YouTube , που παράγονται σε διαφορετικές γλώσσες, και χρησιμοποιούν φωνές που συντίθενται από την τεχνητή νοημοσύνη και φανταχτερές εικόνες για να διαδώσουν παραπληροφόρηση σε θέματα όπως η φυσική, η βιολογία και η ιστορία. Αυτά είναι τα λεγόμενα «σκοτεινά κανάλια», τα οποία δεν απαιτούν πρόσωπο, απλώς μια φωνή με εικόνες που δημιουργούνται από την τεχνητή νοημοσύνη. Με καθαρή αισθητική, απλοποιημένη γλώσσα και γρήγορο ρυθμό, αυτά τα βίντεο προσομοιώνουν τον τόνο των νόμιμων εκπαιδευτικών καναλιών, αλλά διαδίδουν ψευδοεπιστημονικές θεωρίες, όπως πυραμίδες παραγωγής ενέργειας ή άμεσες θεραπείες μέσω ηχητικών συχνοτήτων.


Το προφίλ «σκοτεινού» περιεχομένου χρησιμοποιεί αισθητική της επιστήμης για να παραπλανήσει. Αναπαραγωγή/ BBC

Ο αλγόριθμος του YouTube συχνά προτείνει αυτό το περιεχόμενο αμέσως μετά από αξιόπιστα επιστημονικά βίντεο , δημιουργώντας ένα επικίνδυνο φαινόμενο συσχέτισης: τα παιδιά καταναλώνουν άθελά τους μια αφήγηση που παρουσιάζεται ως γνώση αλλά έχει σχεδιαστεί για να προκαλεί σύγχυση. Η κρίση στην επικοινωνία της επιστήμης δεν αφορά μόνο το τι λέγεται, αλλά και το ποιος εξαπατάται, και σε αυτήν την περίπτωση, το μέλλον είναι αυτό που χειραγωγείται.

Είναι σημαντικό να τονιστεί ότι η επικοινωνία της επιστήμης δεν είναι απλώς μια γέφυρα μεταξύ επιστημόνων και κοινού. Είναι μια κοινωνική συμφωνία. Ένας τρόπος για να γίνει η γνώση προσβάσιμη, να καταπολεμηθούν οι ανισότητες στην πρόσβαση στην πληροφορία και να ενθαρρυνθεί η κριτική σκέψη. Από δημοφιλή περιοδικά μέχρι βίντεο στο YouTube, εκπληρώνει τη δημοκρατική λειτουργία της προσέγγισης της κοινωνίας στην παραγωγή γνώσης. Αλλά αυτή η συμφωνία αρχίζει να καταρρέει όταν αυτό που παρουσιάζεται ως επιστήμη είναι, στην πραγματικότητα, προσομοίωση. Η εμπιστοσύνη στην επιστήμη δεν γεννιέται από μια εργαστηριακή ρόμπα ή έναν μετρημένο τόνο φωνής. Χτίζεται ιστορικά μέσω μεθόδων, αξιολόγησης από ομοτίμους, διαφάνειας και διορθώσεων.

Η τεχνητή νοημοσύνη, αντιγράφοντας μόνο την αισθητική της επιστήμης, με παραπομπές, γραφήματα και τεχνικό λεξιλόγιο, χωρίς τη μέθοδο, προωθεί μια καρικατούρα γνώσης. Και αυτή η καρικατούρα, όταν περνάει για αλήθεια, μετατρέπει την εύλογη αμφιβολία σε προγραμματισμένη σύγχυση.

Σε αυτό το πλαίσιο, το μεγαλύτερο θύμα της επιστημονικής απάτης που δημιουργείται από την Τεχνητή Νοημοσύνη δεν είναι μόνο το εξαπατημένο άτομο, αλλά και η δημόσια εμπιστοσύνη στη γνώση ως συλλογικό αγαθό. Όταν το κοινό δεν μπορεί πλέον να διακρίνει μεταξύ επιστήμης και απάτης, όλα γίνονται θέμα γνώμης. Και σε αυτό το έδαφος της κατασκευασμένης αβεβαιότητας, η άρνηση βρίσκει γόνιμο έδαφος.

Διαφάνεια και λογοδοσία ως αντίδοτο

Αυτό που διακυβεύεται δεν είναι μόνο η ακρίβεια ενός περιεχομένου εδώ κι εκεί. Είναι η ίδια η ιδέα της επιστήμης ως συλλογικού αγαθού. Η επικοινωνία της επιστήμης ήταν πάντα κάτι περισσότερο από μια γέφυρα μεταξύ του εργαστηρίου και της κοινωνίας. Είναι μια δέσμευση για δημόσια κατανόηση, μια προσπάθεια να καταστεί η γνώση προσβάσιμη χωρίς να θυσιάζεται η αυστηρότητα. Αλλά αυτή η συμφωνία αρχίζει να καταρρέει όταν οποιοδήποτε βίντεο με παύση φωνής και μια ρόμπα εργαστηρίου με κινούμενα σχέδια τεχνητής νοημοσύνης αρχίζει να κυκλοφορεί σαν να ήταν ανακάλυψη, απόδειξη ή μελέτη. Όταν η επιστημονική αλήθεια γίνεται ένα ειδικό εφέ.

Επομένως, η συζήτηση για γενική εποπτεία δεν επαρκεί. Πρέπει να δημιουργηθούν συγκεκριμένα πρωτόκολλα για την προστασία της επιστήμης από την ψηφιακή αεροπειρατεία. Το περιεχόμενο που χρησιμοποιεί φωνή, πρόσωπο ή κείμενο που δημιουργείται από την Τεχνητή Νοημοσύνη με επιστημονική αισθητική, ειδικά σε θέματα όπως η υγεία, το περιβάλλον και η εκπαίδευση, πρέπει να φέρει ορατές και ελέγξιμες σημάνσεις. Επειδή η πλαστοπροσωπία ενός ερευνητή για να πουλήσει ένα ψέμα διαφέρει από τη δημιουργία ψηφιακής τέχνης: είναι παραποίηση διαπιστευτηρίων. Είναι μεταμφίεση με το πρόσχημα της επιστήμης για να σκηνοθετήσει μια πλεκτάνη απάτης.

Οι πλατφόρμες, με τη σειρά τους, δεν μπορούν πλέον να προσποιούνται ότι είναι απλώς μια ουδέτερη πλατφόρμα. Το YouTube, το Instagram, το TikTok και τα παρόμοια πρέπει να υιοθετήσουν ηθικά φίλτρα: εάν μπορούν ήδη να αναγνωρίσουν μουσική που προστατεύεται από πνευματικά δικαιώματα, μπορούν επίσης να αναγνωρίσουν βίντεο που προσομοιώνουν ιατρική ή ακαδημαϊκή αυθεντία. Αυτό ισχύει ιδιαίτερα όταν το εν λόγω περιεχόμενο συνιστάται σε παιδιά, νέους ή ευάλωτο κοινό. Εάν επωφελούνται από την εμβέλεια, είναι υπεύθυνοι για τη ζημία που προκαλείται.

Και ίσως το πιο θεμελιώδες σημείο: η διάδοση της επιστήμης σήμερα σημαίνει επίσης την ενθάρρυνση της αμφιβολίας για αυτό που μεταμφιέζεται σε επιστήμη αλλά δεν έχει κατασκευαστεί ως τέτοια. Ο επιστημονικός γραμματισμός πρέπει να βγει από τη φούσκα της επίσημης εκπαίδευσης και να εισέλθει στην ψηφιακή κουλτούρα. Πρέπει να αναπτύξουμε ένα κριτικό μάτι για να διακρίνουμε την τεχνική γλώσσα από τη μεθοδολογική αυστηρότητα. Πρέπει να δείξουμε ότι η παραπομπή δεν είναι απόδειξη, τα γραφήματα δεν είναι αποδεικτικά στοιχεία και μια βαθιά φωνή δεν είναι συνώνυμη με την αυθεντία.

Επειδή η προστασία της επιστημονικής διάδοσης δεν αφορά μόνο την προστασία των ερευνητών. Πρόκειται για την προστασία του δικαιώματος των ανθρώπων να λαμβάνουν αποφάσεις με βάση την πραγματικότητα, όχι τις αποδοσμένες εκδοχές. Αν όλα μπορούν να φαίνονται επιστημονικά, ακόμη και το παράλογο, ο διάλογος γίνεται ένας διαγωνισμός για τα φαινόμενα. Και σε αυτό το θέατρο προσομοίωσης, αυτό που χάνεται δεν είναι μόνο η αλήθεια: είναι η εμπιστοσύνη, η περιέργεια και η δυνατότητα μάθησης. Η Τεχνητή Νοημοσύνη δεν χρειάζεται να λέει ψέματα για να παραπληροφορεί. Απλώς χρειάζεται να διαδίδει θόρυβο μέχρι κανείς να μην ξέρει ποιον να εμπιστευτεί. Αλλά όταν η επιστήμη αποτυπώνεται από ένα επιχειρηματικό μοντέλο που βασίζεται περισσότερο στη συμμετοχή παρά σε γεγονότα, πώς μπορείς να ανταγωνιστείς τους καλύτερους ψεύτες;

Για τους Βραζιλιάνους με έδρα την Επιστήμη και τις απόψεις που βασίζονται στη γνώση

Το εβδομαδιαίο ενημερωτικό δελτίο μας, το οποίο βοηθάω στην επεξεργασία, παραδίδει στο γραμματοκιβώτιό σας κάθε εβδομάδα, μια επιλογή από τις καλύτερες συνεργασίες των επιστημόνων του The Conversation στη Βραζιλία και στον κόσμο. Όλα σε προσβάσιμη και ελκυστική γλώσσα. Μην χάνετε χρόνο: εγγραφείτε στο ενημερωτικό δελτίο μας.


 

Avatar
Paulo Mussoi
Εκτελεστικος Συντάκτης



 
Ανακαλύψτε το εβδομαδιαίο ενημερωτικό μας δελτίο

Σας βοηθά να εμβαθύνετε στην πιο σχετική έρευνα στη βραζιλιάνικη και παγκόσμια επιστήμη. Πληροφορίες με γνώση. Γνώμη με βάση. Επιστημονική αυστηρότητα, με δημοσιογραφικό ύφος.

Άβαταρ
Μόνικα Ταραντίνο
Εκδότης















 
Copyright © 2011 - 2026 Στύξ - Ανεξάρτητη Πολιτισμική και Πολιτική Εφημερίδα της Βόρειας Πελοποννήσου