Κάθε εικόνα που θα δημιουργείται με Τεχνητή Νοημοσύνη (AI)  θα εντοπίζει τους επόμενους μήνες και θα αναρτάται στα κοινωνικά της δίκτυα η Meta.

«Τους επόμενους μήνες θα τοποθετούμε σήμανση στις εικόνες που δημοσιεύουν οι χρήστες στο Facebook, το Instagram και το Threads όταν θα μπορούμε να ανιχνεύουμε ενδείξεις, σύμφωνες με τους κανόνες της βιομηχανίας, που σημαίνουν ότι έχουν δημιουργηθεί με τη βοήθεια της Τεχνητής Νοημοσύνης» ανακοίνωσε ο Νικ Κλεγκ, υπεύθυνος Διεθνών Υποθέσεων της Meta.

Η Meta έχει ήδη θέσει σε εφαρμογή τις ετικέτες στις εικόνες που δημιουργούνται με το εργαλείο της Meta AI από την εφαρμογή του τον Δεκέμβριο και ο Κλεγκ πρόσθεσε: «Θέλουμε να μπορούμε να το κάνουμε επίσης με περιεχόμενα που δημιουργούνται με τα εργαλεία άλλων εταιρειών (σ.σ.: όπως οι Google, OpenAI, Microsoft, Adobe, Midjourney και Shutterstock)… Δημιουργούμε αυτήν την ικανότητα ήδη από σήμερα και τους επόμενους μήνες θα αρχίσουμε να εφαρμόζουμε τις ετικέτες σε όλες τις γλώσσες στις οποίες λειτουργεί κάθε εφαρμογή».

Η ανακοίνωση της Meta έρχεται την ώρα που η εκτόξευση της γενετικής Τεχνητής Νοημοσύνης προκαλεί φόβους μήπως κάποιοι χρησιμοποιήσουν αυτά τα εργαλεία για να σπείρουν το πολιτικό χάος μέσω της παραπληροφόρησης, καθώς πλησιάζουν σημαντικές εκλογικές αναμετρήσεις που θα διεξαχθούν κατά τη διάρκεια της χρονιάς σε χώρες όπου κατοικεί ο μισός πληθυσμός του πλανήτη.

Αν και ο Νικ Κλεγκ παραδέχεται ότι το σύστημα των ετικετών σε μεγάλη κλίμακα, μέσω αόρατων σημάνσεων δεν θα εξαλείψει τον κίνδυνο παραγωγής deepfakes, θα ελαχιστοποιήσει τη διασπορά στα όρια αυτού που επιτρέπει σήμερα η τεχνολογία: «Δεν είναι τέλειο, η τεχνολογία δεν βρίσκεται ακόμη στο επίπεδο αυτό, αλλά είναι η πιο προωθημένη απόπειρα από όλες τις πλατφόρμες μέχρι στιγμής για να υπάρξει σημαντική διαφάνεια για δισεκατομμύρια ανθρώπους στο κόσμο… Ελπίζω πραγματικά ότι εφαρμόζοντας αυτό και βγαίνοντας στην πρωτοπορία, θα παρακινήσουμε και την υπόλοιπη βιομηχανία να συνεργαστεί και να προσπαθήσει να αναπτύξει τις κοινές τεχνικές ρυθμίσεις που έχουμε ανάγκη».

Η καλιφορνέζικη OpenAI, δημιουργός του ChatGPT, ανακοίνωσε επίσης στα μέσα του Ιανουαρίου τη λειτουργία εργαλείων για την καταπολέμηση της παραπληροφόρησης, εκφράζοντας την πρόθεση να μην επιτρέψει τη χρησιμοποίηση των τεχνολογικών αυτών εργαλείων, όπως το ChatGPT και το DALL-E 3, για πολιτικούς σκοπούς.