Ηθοποιοί με ιστορικές στολές δρουν σε μια εκδήλωση για τον εορτασμό της 216ης επετείου της πρωσικής-γαλλικής μάχης της Ιένας στο ιστορικό πεδίο μάχης του 1806 κοντά στην Cospeda. Είναι οι εικόνες πραγματικές ή ψεύτικες;
Φωτογραφία: Bodo Schackow/dpa
Η τεχνητή νοημοσύνη, ειδικά οι εικόνες που δημιουργούνται από την τεχνητή νοημοσύνη, προκαλούν «τσουνάμι» ψεύτικης ιστορίας.
Ο Ολλανδός ιστορικός Jo Hedwig Teeuwissen προειδοποιεί ενάντια σε αυτό.
Epoch Times
23 Οκτωβρίου 2024
Μια μητέρα που κλαίει με ένα παιδί κατά τη διάρκεια της Μεγάλης Ύφεσης, ένας στρατιώτης στον πόλεμο του Βιετνάμ - τέτοια μοτίβα μπορούν να φανούν σε εικόνες που κυκλοφορούν σήμερα σε διαδικτυακά δίκτυα.
Με την πρώτη ματιά, φαίνεται να συλλαμβάνουν πραγματικές ιστορικές στιγμές, αλλά δημιουργούνται με τεχνητή νοημοσύνη (AI). Οι χρήστες μοιράζονται τέτοιες υποτιθέμενες ιστορικές φωτογραφίες μαζικά στο Διαδίκτυο. Σύμφωνα με τους ειδικούς, οι εικόνες, οι οποίες είναι ως επί το πλείστον ασπρόμαυρες, διατρέχουν τον κίνδυνο διαστρέβλωσης της ιστορίας.
Για παράδειγμα, μια φωτογραφία που κυκλοφόρησε στο Facebook που υποτίθεται ότι δείχνει τους αδελφούς Wright, δύο πρωτοπόρους της αεροπορίας, μετά την πρώτη μηχανοκίνητη πτήση τους το 1903. Μπορείτε να δείτε ένα χαμογελαστό ζευγάρι αδελφών με ξανθά μαλλιά να ποζάρουν μπροστά από ένα αεροπλάνο.
Από την άλλη, πραγματικές φωτογραφίες αρχείου δείχνουν δύο άνδρες με επίπεδα καπέλα που δεν μοιάζουν με τους δύο ξανθούς άνδρες. Η ατμόσφαιρα των φωτογραφιών είναι επίσης εντελώς διαφορετική. Στις αρχικές φωτογραφίες, είτε απεικονίζονται με σοβαρές εκφράσεις είτε μπορούν να θεωρηθούν μόνο ως μακρινές σιλουέτες που εργάζονται στο πρωτότυπο του αεροσκάφους τους.
Οι ψεύτικες φωτογραφίες διαστρεβλώνουν την Ιστορία
Γιατί δημιουργήθηκε αυτή η ψεύτικη φωτογραφία; Μια έρευνα από το πρακτορείο ειδήσεων AFP έμεινε αναπάντητη από τον συντάκτη της πλαστογραφίας.
Ωστόσο, η εικόνα αποκάλυψε ποια προτροπή - δηλαδή ποια οδηγία - εισήχθη από αυτόν στο πρόγραμμα AI. Σύμφωνα με αυτό, επρόκειτο να δημιουργηθεί μια «επίσημη» ατμόσφαιρα.
«Η τεχνητή νοημοσύνη έχει προκαλέσει ένα τσουνάμι ψευδούς ιστορίας, ειδικά στον τομέα των εικόνων», διαπιστώνει ο Ολλανδός ιστορικός Jo Hedwig Teeuwissen. Στα διαδικτυακά δίκτυα, με το ψευδώνυμο "Fake History Hunter", εντοπίζει ψευδείς ισχυρισμούς ή προκαταλήψεις σχετικά με τις ιστορικές εξελίξεις.
«Σε ορισμένες περιπτώσεις, πρόκειται για αναπαραγωγές τεχνητής νοημοσύνης των πραγματικά υπαρχουσών φωτογραφιών αρχείου. Αυτό είναι πραγματικά περίεργο, ειδικά όταν τα πρωτότυπα είναι πολύ γνωστά», αναρωτιέται ο επιστήμονας.
Εικόνες AI της ατομικής βόμβας της Χιροσίμα
Για παράδειγμα, το δημοφιλές πρόγραμμα εικόνας AI Midjourney χρησιμοποιήθηκε για τη δημιουργία απομιμήσεων που μιμούνται διάσημες φωτογραφίες - όπως η δολοφονία του Lee Harvey Oswald, του φερόμενου δολοφόνου του John F.
Υπάρχουν επίσης εικόνες του Midjourney που υποτίθεται ότι δείχνουν την έκρηξη της ατομικής βόμβας της Χιροσίμα στις 6 Αυγούστου 1945, την εισβολή στην Πράγα από στρατεύματα του Συμφώνου της Βαρσοβίας τον Αύγουστο του 1968 ή το Κολοσσαίο στην αρχαία Ρώμη - καμία από αυτές δεν είναι πραγματική.
Η Marina Amaral επικρίνει επίσης την τάση αυτών των ψευδών φωτογραφιών αρχείου που δημιουργούνται από την τεχνητή νοημοσύνη. Η Βραζιλιάνα είναι καλλιτέχνης και ειδικεύεται στο χρωματισμό παλιών φωτογραφιών. Η σκηνοθεσία «γεγονότων που συνέβησαν πριν από πολύ καιρό για να φωτογραφηθούν» ή στιγμών της ιστορίας που είναι «κακώς τεκμηριωμένες» την ανησυχεί.
«Ο κίνδυνος είναι ότι αυτές οι ψευδείς εικόνες θα θεωρηθούν ως ιστορικό γεγονός και ότι με την πάροδο του χρόνου αυτό θα αλλάξει την κατανόησή μας για την ιστορία και θα αποδυναμώσει την εμπιστοσύνη του κοινού (στην εικόνα) ως αξιόπιστη πηγή για τη μελέτη του παρελθόντος», πιστεύει ο Amaral.
Πώς μπορεί να διακριθεί το πραγματικό από το ψεύτικο;
Η Marina Amaral και η Jo Hedwig Teeuwissen εξακολουθούν να είναι πεπεισμένοι ότι είναι σε θέση να διακρίνουν το πραγματικό από το ψεύτικο χάρη στην εμπειρία τους και ορισμένα λάθη.
Σύμφωνα με τα ευρήματά τους, οι φωτογραφίες που παράγονται από AI συχνά εξακολουθούν να έχουν αποκαλυπτικά λάθη: πάρα πολλά δάχτυλα από τη μία πλευρά, ανύπαρκτες λεπτομέρειες - όπως η έλλειψη έλικα στο αεροσκάφος των αδελφών Wright - ή το αντίστροφο: πολύ τέλεια σύνθεση εικόνας.
Το AI δεν μπορεί να μιμηθεί ορισμένα χαρακτηριστικά πραγματικών φωτογραφιών, όπως στιγμιότυπα μιας στιγμής γεμάτης συναισθήματα, κρίνει η Amaral. «Τους λείπει το ανθρώπινο στοιχείο, η πρόθεση, ο λόγος για τις αποφάσεις του φωτογράφου. Αν και είναι οπτικά πειστικές, αυτές οι εικόνες παραμένουν κούφιες», λέει η καλλιτέχνης.
Για τον Teeuwissen, «οι πραγματικές φωτογραφίες λαμβάνονται από πραγματικούς ανθρώπους και συνήθως κάτι είναι θολό, ή κάποιος φαίνεται κατά λάθος ανόητος, το μακιγιάζ φαίνεται κακό και ούτω καθεξής».
Ωστόσο, ο ιστορικός εκτιμά ότι είναι «μόνο θέμα χρόνου» πριν η ποιότητα των εικόνων AI κάνει τις απομιμήσεις δύσκολο να εντοπιστούν με γυμνό μάτι. Πρόκειται για μια «επικίνδυνη» προοπτική που απειλεί να ενισχύσει τη δύναμη της παραπληροφόρησης. (AFP/red)
ΜΕΤΑΦΡΑΣΗ: ΜΑΡΙΓΩ ΖΑΡΑΦΟΠΟΥΛΑ
Δεν υπάρχουν σχόλια:
Δημοσίευση σχολίου
Ἐνημερώνουμε τοὺς ἀγαπητοὺς ἀναγνῶστες μας, ὅτι σχόλια, τὰ ὁποῖα ἐμπεριέχουν προσβλητικοὺς χαρακτηρισμούς, διαφημίζουν κόμματα ἢ εἶναι γραμμένα μὲ λατινικοὺς χαρακτῆρες (γκρήκλις), θὰ διαγράφωνται ἄνευ προειδοποιήσεως!