Παραγωγική τεχνητή νοημοσύνη

(Ανακατεύθυνση από Δημιουργική ΤΝ)

 Η generative A.I. ή generative τεχνητή νοημοσύνη (προφέρεται Τζενερέιτιβ Έι Άι, συναντάται εν συντομία και ως GenAI[1] ή GAI και Generative Τ.Ν.), που στα ελληνικά αποκαλείται παραγωγική τεχνητή νοημοσύνη ή γενετική τεχνητή νοημοσύνη[α], είναι είδος τεχνητής νοημοσύνης ικανό να παράγει κείμενο, εικόνες, βίντεο ή άλλα δεδομένα χρησιμοποιώντας γενετικά/παραγωγικά μοντέλα[2], συχνά ως απάντηση σε "prompts"[3][4]. Τα μοντέλα παραγωγικής τεχνητής νοημοσύνης, μαθαίνουν τα πρότυπα και τη δομή των δεδομένων κατάρτισης εισόδου τους και στη συνέχεια παράγουν νέα δεδομένα που έχουν παρόμοια χαρακτηριστικά.[5][6]

A detailed oil painting of figures in a futuristic opera scene
Το Θέατρο D'Opera Spatial, μια εικόνα που δημιουργήθηκε με το εργαλείο Midjourney

Οι βελτιώσεις στα βαθιά νευρωνικά δίκτυα που βασίζονται σε μετασχηματιστές μηχανικής μάθησης και ειδικά σε LLMs, επέτρεψαν μια άνοδο της τεχνητής νοημοσύνης των παραγωγικών (generative) συστημάτων αυτής, στις αρχές της δεκαετίας του 2020. Αυτά περιλαμβάνουν chatbots[β] όπως το ChatGPT, ο Microsoft Copilot, το Gemini και LLaMA, συστήματα δημιουργίας εικόνων τεχνητής νοημοσύνης (κείμενο για εικόνες) όπως το Stable Diffusion, το Midjourney και το DALL-E, και συστήματα πραγωγής βίντεο (κείμενο σε βίντεο) όπως το Sora.[7] Εταιρείες όπως οι OpenAI, Anthropic, Microsoft, Google και Baidu καθώς και πολλές μικρότερες επιχειρήσεις έχουν αναπτύξει μοντέλα παραγωγικής τεχνητής νοημοσύνης.[8]

Η παραγωγική τεχνητή νοημοσύνη έχει χρήσεις σε ένα ευρύ φάσμα βιομηχανιών, συμπεριλαμβανομένης της ανάπτυξης λογισμικού, υγειονομικής περίθαλψης, χρηματοδότησης, ψυχαγωγίας, εξυπηρέτησης πελατών,[9] πωλήσεων και μάρκετινγκ,[10] τέχνης, γραφής,[11] μόδας,[12] και σχεδιασμού προϊόντων.[13] Ωστόσο, έχουν εγείρει ανησυχίες σχετικά με τη δυνητική κατάχρηση της παραγωγικής ΤΝ όπως το κυβερνοεγκληματικό, τη χρήση ψεύτικων ειδήσεων ή deepfakes για να εξαπατήσουν ή να χειραγωγήσουν τους ανθρώπους και τη μαζική αντικατάσταση ανθρώπινων θέσεων εργασίας.[14][15] Υπάρχουν επίσης ανησυχίες για το δίκαιο πνευματικής ιδιοκτησίας, γύρω από γενετικά μοντέλα που εκπαιδεύονται και μιμούνται πνευματικά προστατευμένα έργα τέχνης[16].


Ιστορικό

Επεξεργασία

Η ακαδημαϊκή αρχή για την τεχνητή νοημοσύνη καθιερώθηκε σε ένα ερευνητικό εργαστήριο που πραγματοποιήθηκε στο πανεπιστήμιο «Dartmouth College» το 1956 και έχει βιώσει αρκετά κύματα προόδου και αισιοδοξίας στις δεκαετίες που ακολούθησαν.[17] Από την ίδρυσή της, οι ερευνητές στο πεδίο έχουν εγείρει φιλοσοφικά και ηθικά επιχειρήματα σχετικά με τη φύση του ανθρώπινου νου και τις συνέπειες της δημιουργίας τεχνητών όντων με ανθρώπινη νοημοσύνη. Αυτά τα θέματα έχουν εξερευνηθεί προηγουμένως από μύθους, την φαντασία και την φιλοσοφία κατά την αρχαιότητα.[18] Η έννοια της αυτοματοποιημένης τέχνης χρονολογείται τουλάχιστον από τους «αυτόματους» του αρχαίου ελληνικού πολιτισμού, όπου εφευρέτες όπως ο Δαίδαλος και ο Ήρων περιγράφονταν ως εκείνοι που σχεδίασαν μηχανές ικανές να γράφουν κείμενο, να παράγουν ήχους και να παίζουν μουσική.[19][20] Η παράδοση των παραγωγικών αυτομάτων έχει ανθίσει καθ' όλη την ιστορία, όπως πχ ο αυτοματισμός του Μέιγιαρντέτ που δημιουργήθηκε στις αρχές του 1800.[21]

Οι αλυσίδες Μαρκόβ (Markov chains) χρησιμοποιούνται εδώ και καιρό για να μοντελοποιήσουν τις φυσικές γλώσσες από τότε που αναπτύχθηκαν από τον Ρώσο μαθηματικό Άντριε Μαρκόβ στις αρχές του 20ου αιώνα. Ο Μαρκόβ δημοσίευσε την πρώτη του εργασία για το θέμα το 1906,[22][23] και ανέλυσε το πρότυπο των φωνητικών και των συνωνιών στο μυθιστόρημα Eugeny Onegin χρησιμοποιώντας τις αλυσίδες Μαρκόβ. Μόλις μια αλυσίδα Μαρκόβ μάθει σε ένα σώμα κειμένου, μπορεί να χρησιμοποιηθεί ως πιθανότητα γεννήτρια κειμένου.[24][25]

Η έρευνα για την τεχνητή νοημοσύνη ξεκίνησε τη δεκαετία του 1950 με έργα όπως η Μηχανική Υπολογισμού και η Νοημοσύνης (1950) και το θερινό ερευνητικό πρότζεκτ του Ντάρτμουθ περί τεχνητής νοημοσύνης (1956), Από την δεκαετία του 1950 οι καλλιτέχνες και οι ερευνητές χρησιμοποίησαν τεχνητή νοημοσύνη για να δημιουργήσουν καλλιτεχνικά έργα. Στις αρχές της δεκαετίας του 1970, ο Χάρολντ Κόεν δημιουργούσε και εξέθεσε έργα γενετικής τεχνητής νοημοσύνης που δημιουργήθηκαν από το AARON, το υπολογιστικό πρόγραμμα που δημιούργησε ο Κόεν για την παραγωγή πινάκων.[26]


Οι όροι «generative AI planning» (πργραμματισμός παραγωγικής τεχνητής νοημοσύνης) ή «generative planning» (γενεσιουργός προγραμματισμός) χρησιμοποιήθηκαν στη δεκαετία του 1980 και του 1990 για να αναφέρονται σε συστήματα σχεδιασμού τεχνητής νοημοσύνης, ειδικά στον σχεδιασμό διαδικασιών με υποβοήθηση υπολογιστή, που χρησιμοποιούνται για την παραγωγή ακολουθιών δράσεων για την επίτευξη ενός συγκεκριμένου στόχου.[27][28] Τα συστήματα σχεδιασμού AI χρησιμοποίησαν συμβολικές μεθόδους AI και ήταν μια "σχετικά ώριμη" τεχνολογία στις αρχές της δεκαετίας του 1990. Χρησιμοποιήθηκαν για την παραγωγή σχεδίων δράσης κρίσης για στρατιωτική χρήση,[29] σχεδίων διαδικασίας για την κατασκευή[27] και σχεδίων λήψης αποφάσεων, όπως στο πρωτότυπο αυτόνομο διαστημικό σκάφος.[30]

Ο τομέας της μηχανικής μάθησης χρησιμοποιεί συχνά στατιστικά μοντέλα, συμπεριλαμβανομένων των γενετικών μοντέλων, για να μοντελοποιεί και να προβλέπει δεδομένα. Από τα τέλη της δεκαετίας του 2000, η εμφάνιση της βαθιάς μάθησης οδήγησε την πρόοδο και την έρευνα στην ταξινόμηση εικόνας, την αναγνώριση της ομιλίας, την επεξεργασία της φυσικής γλώσσας και άλλα καθήκοντα. Τα νευρωνικά δίκτυα στην εποχή αυτή συνήθως εκπαιδεύονταν ως διακριτικά μοντέλα, λόγω της δυσκολίας της γενετικής μοντελοποίησης.[31]

Το 2014, πρόοδοι όπως ο αυτοαποκωδικοποιητής μεταβλητών (VAE) και το παραγωγικό αντιπαραθετικό δίκτυο δημιούργησαν τα πρώτα πρακτικά βαθιά νευρωνικά δίκτυα που να είναι σε θέση να κατανοήσουν παραγωγικά μοντέλα, σε αντίθεση με τα διακριτικά, για σύνθετα δεδομένα όπως εικόνες. Αυτά τα βαθιά παραγωγικά μοντέλα ήταν τα πρώτα που παράγουν όχι μόνο τις ετικέτες κατηγορίας για εικόνες, αλλά και ολόκληρες εικόνες.

Το 2017, το δίκτυο Transformer επέτρεψε την πρόοδο των γενετικών μοντέλων σε σύγκριση με τα παλαιότερα μοντέλα μακροχρόνιας μνήμης[32], οδηγώντας στο πρώτο γενετικό προεκπαιδευμένο μετασχηματιστή (GPT), γνωστό ως GPT-1, το 2018.[33] Αυτό ακολούθησε το 2019 από το GPT-2 το οποίο απέδειξε την ικανότητα γενικευμένης μη εποπτευόμενης σε πολλές διαφορετικές εργασίες ως μοντέλο Ιδρύματος (Foundation model).[34]

Βίντεο που παρήχθει από την Sora

Το 2021, η κυκλοφορία του DALL-E, ενός μοντέλου παραγωγής pixel με βάση μετασχηματιστή, ακολουθούμενου από το Midjourney και την Stable Diffusion σηματοδότησε την εμφάνιση τεχνολογιών ΑΙ παραγωγής υψηλής ποιότητας τέχνης από τα prompts της φυσικής γλώσσας.

Τον Μάρτιο του 2023, κυκλοφόρησε το GPT-4. Μια ομάδα από την Microsoft Research υποστήριξε ότι "μπορεί λογικά να θεωρηθεί ως μια πρώιμη (ακόμη ελλιπή) έκδοση ενός συστήματος τεχνητής γενικής νοημοσύνης (AGI).[35] Άλλοι μελετητές αμφισβητούν ότι το GPT-4 φτάνει σε αυτό το κατώφλι, αποκαλώντας την generative AI "ακόμα μακριά από το σημείο αναφοράς της «γενικής ανθρώπινης νοημοσύνης»" από το 2023.[36] Το 2023, η Meta κυκλοφόρησε ένα μοντέλο AI που ονομάζεται ImageBind το οποίο συνδυάζει δεδομένα από κείμενο, εικόνες, βίντεο, θερμικά δεδομένα, 3D δεδομένα, ήχο και κίνηση που αναμένεται να επιτρέψει πιο εμβυθιστικό περιεχόμενο παραγωγικής AI.[37][38]

Σύμφωνα με έρευνα της SAS και της Coleman Parkes Research, η Κίνα είναι πρώτη στον κόσμο στην υιοθέτηση γενετικής Τεχνητής Νοημοσύνης, με το 83% των Κινέζων ερωτηθέντων να χρησιμοποιούν την τεχνολογία, ξεπερνώντας το παγκόσμιο μέσο όρο του 54% και τις Ηνωμένες Πολιτείες που βρίσκονται στο 65%. Μια έκθεση του ΟΗΕ αποκάλυψε ότι η Κίνα κατέθεσε πάνω από 38.000 ευρεσιτεχνίες GenAI από το 2014 έως το 2023, υπερβαίνοντας πολύ τις ΗΠΑ.[39]

Ένα παραγωγικό σύστημα AI κατασκευάζεται εφαρμόζοντας μη εποπτευόμενη ή αυτο-εποπτευόμενη μηχανική μάθηση σε ένα σύνολο δεδομένων. Οι δυνατότητες ενός γενετικού συστήματος AI εξαρτώνται από τη μορφή ή τον τύπο του συνόλου δεδομένων που χρησιμοποιείται.

Η παραγωγική ΤΝ μπορεί να είναι είτε μονοτροπική είτε πολυτροπική· τα μονοτροπικά συστήματα λαμβάνουν μόνο ένα είδος εισόδου, ενώ τα πολυτροπικά συστήματα μπορούν να λαμβάνουν περισσότερους από έναν τύπο εισόδου.[40] Για παράδειγμα, μια έκδοση του GPT-4 του OpenAI δέχεται τόσο τις εισόδους κειμένου όσο και εικόνας.[41]

Τα γενετικά συστήματα AI που εκπαιδεύονται με λέξεις ή κωδικά σήματα λέξεων περιλαμβάνουν τα GPT-3, GPT-4, GPT-4o, LaMDA, LLaMA, BLOOM, Gemini και άλλα (βλ. κατάλογος μεγάλων γλωσσικών μοντέλων). Είναι ικανές για επεξεργασία της φυσικής γλώσσας, μηχανική μετάφραση και παραγωγή φυσικής γλώσσης και δύνανται να χρησιμοποιηθούν ως πρότυπα βάσης για άλλες εργασίες.[42] Τα σύνολα δεδομένων περιλαμβάνουν το BookCorpus, την Wikipedia και άλλα.

Εκτός από το κείμενο της φυσικής γλώσσας, μεγάλα μοντέλα γλώσσας μπορούν να εκπαιδευτούν σε κείμενο γλώσσας προγραμματισμού, επιτρέποντάς τους να παράγουν πηγαίο κώδικα για νέα προγράμματα υπολογιστών.[43] Παραδείγματα περιλαμβάνουν το OpenAI Codex.

 
Η Stable Diffusion, δημιούργησε αυτήν την εικόνα με την εξής οδηγία σε φυσική γλώσσα: «a photograph of an astronaut riding a horse»[γ]

Η παραγωγή υψηλής ποιότητας οπτικής τέχνης είναι μια εξέχουσα εφαρμογή της παραγωγικής ΤΝ[44]. Τα γενετικά συστήματα AI που εκπαιδεύονται σε σύνολα εικόνων με τίτλους κειμένου περιλαμβάνουν το Imagen, DALL-E, Midjourney, Adobe Firefly, Stable Diffusion και άλλα. Χρησιμοποιούνται συνήθως για την παραγωγή εικόνας από κείμενο και τη μεταβίβαση νευρωνικού στυλ (NST)[45]. Τα σύνολα δεδομένων περιλαμβάνουν το LAION-5B και άλλα.

Η παραγωγική τεχνητή νοημοσύνη μπορεί επίσης να εκπαιδευτεί εκτενώς σε ηχητικά κλιπ για να παράγει φυσική σύνθεση ομιλίας και δυνατότητες κειμένου-για-ομιλία, όπως παραδείγματος χάρη από τα εργαλεία σύνθεσης που γνωρίζουν το πλαίσιο του ElevenLabs ή το Voicebox της Meta Platform.[46]

Τα γενετικά συστήματα AI όπως το MusicLM[47] και το MusicGen[48] μπορούν επίσης να εκπαιδευτούν στις ηχητικές κυματικές μορφές μαζί με τις σημειώσεις κειμένου, προκειμένου να δημιουργηθούν νέα μουσικά δείγματα με βάση τις περιγραφές κειμένου όπως μια ηρεμιστική μελωδία βιολιού που υποστηρίζεται από ένα στρεβλωμένο riff κιθάρας.

Έχουν δημιουργηθεί ηχητικά deepfakes από στίχους, όπως το τραγούδι Savages, το οποίο χρησιμοποίησε AI για να μιμηθεί την φωνή του ραππερ Jay-Z. Τα μουσικά όργανα και οι στίχοι των καλλιτεχνών έχουν πνευματικά δικαιώματα, αλλά οι φωνές τους δεν προστατεύονται από την γενετική τεχνητή νοημοσύνη -τουλάχιστον όχι ακόμα-, προκαλώντας μια δημόσια συζήτηση σχετικά με το αν οι καλλιτέχνες πρέπει να λαμβάνουν δικαιώματα από τα deepfakes ήχου.[49]

Μουσική που δημιουργήθηκε από την AI από τον Riffusion Inference Server, προωθημένη με bossa nova με ηλεκτρική κιθάρα (οδηγία σε φυσική γλώσσα: bossa nova with electric guitar)

Πολλοί παραγωγοί μουσικής AI έχουν δημιουργηθεί που μπορούν να δημιουργηθούν χρησιμοποιώντας μια κειμενική φράση, επιλογές τζάντρων και λουπ βιβλιοθήκες μπαρ και riffs. [50]

Βίντεο που δημιουργήθηκε από τον Sora με την άμεση άγρια ζωή του Μπορνέο στο ποτάμι Kinabatangan (οδηγία σε φυσική γλώσσα: Borneo wildlife on the Kinabatangan River)

Η παραγωγική νοημοσύνη που εκπαιδεύεται σε βίντεο μπορεί να παράγει προσωρινά συνεκτικά, λεπτομερή και φωτορεαλιστικά βίντεό κλιπ. Παραδείγματα περιλαμβάνουν τη Sora από το OpenAI,[51] τη Gen-1 και τη Gen-2 από το Runway,[52] και το Make-A-Video από τις Meta Platforms.[53]

Η γενετική νοημοσύνη μπορεί επίσης να εκπαιδευτεί στις κινήσεις ενός ρομποτικού συστήματος για να παράγει νέες τροχιά για τον σχεδιασμό κίνηση ή τη πλοήγηση. Για παράδειγμα, το UniPi από την Google Research χρησιμοποιεί προτάσεις όπως "πάρε μπλε μπολ" ή "καθάρίτε την πλάκα με κίτρινο σφουγγάρι" για να ελέγχει τις κινήσεις ενός ρομπότ.[54] Τα πολυμοδαλικά μοντέλα "πράγματος όρασης-γλωσσας" όπως το RT-2 της Google μπορούν να εκτελέσουν πρωτότυπο σκεπτικό σε απάντηση σε ειδοποιήσεις του χρήστη και θεώρητες εισφορές, όπως η ανάληψη ενός δεινόσαυρου παιχνιδιού όταν δίνεται η ειδοποίηση να αναλάβει το εξαφανισμένο ζώο σε ένα τραπέζι γεμάτο με ζώα παιχνιδιού και άλλα αντικείμενα.[55]

Ο τεχνητά ευφυής σχεδιασμός με υποβοήθηση υπολογιστή (CAD) μπορεί να χρησιμοποιήσει κείμενο-σε-3D, εικόνα-σε-3D και βίντεο-σε-3D για να αυτοματοποιήσει την μοντελοποίηση 3D.[56] Οι βιβλιοθήκες CAD με βάση την τεχνητή νοημοσύνη θα μπορούσαν επίσης να αναπτυχθούν χρησιμοποιώντας ανοιχτά δεδομένα σχεδιασμού και διαγράμματα.[57] Οι βοηθοί AI CAD χρησιμοποιούνται ως εργαλεία για να βοηθηθούν στη βελτίωση της ροής εργασίας.[58]

Λογισμικό και υλικό

Επεξεργασία

Τα παραγωγικά μοντέλα AI χρησιμοποιούνται για την τροφοδοσία προϊόντων chatbot όπως το ChatGPT, εργαλειών προγραμματισμού όπως το GitHub Copilot,[59] προϊόντα κειμένου-επισκόπησης όπως το Midjourney, και προϊόντα κειμενικού-βίντεο όπως το Runway Gen-2.[60] Τα γενετικά χαρακτηριστικά της AI έχουν ενσωματωθεί σε μια ποικιλία υφιστάμενων εμπορικά διαθέσιμων προϊόντων, όπως το Microsoft Office (Microsoft Copilot),[61] Google Photos[62] και η Adobe Suite (Adobe Firefly).[63] Πολλά παραγωγικά μοντέλα AI είναι επίσης διαθέσιμα ως λογισμικό ανοιχτού κώδικα, συμπεριλαμβανομένης της Stable Diffusion και του μοντέλου γλώσσας LLaMA.[64]

 
Architecture of a generative AI agent

Μικρότερα γενετικά μοντέλα AI με έως και μερικές δισεκατομμύρια παράμετροι μπορούν να λειτουργήσουν σε έξυπνα τηλέφωνα, ενσωματωμένες συσκευές και προσωπικούς υπολογιστές. Για παράδειγμα, η LLaMA-7B (μια έκδοση με 7 δισεκατομμύρια παραμέτρους) μπορεί να τρέξει σε ένα Raspberry Pi 4[65] και μια έκδοση της Stable Diffusion μπορεί να τρέχει σε ένα iPhone 11[66].

Μεγαλύτερα μοντέλα με δεκάδες δισεκατομμύρια παραμέτρους μπορούν να τρέχουν σε φορητούς υπολογιστές ή υπολογιστές επιφάνειας. Για να επιτευχθεί μια αποδεκτή ταχύτητα, τα μοντέλα αυτού του μεγέθους μπορεί να απαιτούν επιταχυντικά όπως τα τσιπ GPU που παράγονται από την NVIDIA και την AMD ή τον Neural Engine που περιλαμβάνεται στα προϊόντα σιλικόνης της Apple. Για παράδειγμα, η έκδοση 65 δισεκατομμυρίων παραμέτρων του LLaMA μπορεί να ρυθμιστεί για να εκτελείται σε υπολογιστή επιφάνειας.[67]

Τα πλεονεκτήματα της εκτέλεσης παραγωγικής AI τοπικά περιλαμβάνουν την προστασία της ιδιωτική ζωής και της πνευματικής ιδιοκτησίας, καθώς και την αποφυγή του rate limiting και της λογοκρισίας. Το υποσελίδα του reddit r/LocalLLaMA επικεντρώνεται ιδιαίτερα στη χρήση γραφικών καρτών παιχνιδιού καταναλωτικού βαθμού [68] μέσω τεχνικών όπως η συμπίεση. Το φόρουμ αυτό είναι μία από τις δύο πηγές που εμπιστεύεται ο γνωστός μηχανικός υπολογιστών Αντρέι Καρπάθι ως σημεία αναφοράς γλωσσικών μοντέλων[69], ενώ ο συνάδελφός του Γιαν ΛεΚούν έχει υποστηρίξει τα μοντέλα ανοιχτού κώδικα για την αξία τους στις κάθετες εφαρμογές[70] και για τη βελτίωση της ασφάλειας της AI.[71]

Τα γλωσσικά μοντέλα με εκατοντάδες δισεκατομμύρια παραμέτρους, όπως GPT-4 ή PaLM, συνήθως εκτελούνται σε κέντρα δεδομένων εξοπλισμένα με συστοιχίες GPU (όπως το H100 της NVIDIA) ή τσιπ επιταχυντή AI (όπως η TPU της Google). Αυτά τα πολύ μεγάλα μοντέλα συνήθως προσφέρονται ως υπηρεσίες νέφους μέσω του Διαδικτύου.


Υπάρχει ελεύθερο λογισμικό στην αγορά ικανό να αναγνωρίζει το κείμενο που παράγεται από γενετική τεχνητή νοημοσύνη (όπως το GPTZero), καθώς και εικόνες, ήχο ή βίντεο που προέρχονται από αυτό.[72] Οι πιθανές στρατηγικές μετριασμού για την ανίχνευση περιεχομένου AI γενικά περιλαμβάνουν ψηφιακό watermarking, αυθεντίωση περιεχομένων, αναζήτηση πληροφοριών και μοντέλα ταξινόμησης μηχανικής μάθησης.[73] Παρά τoυς ισχυρισμούς της ακρίβειας, τόσο οι δωρεάν όσο και οι επί-πληρωμής ανιχνευτές κειμένου AI έχουν συχνά παράγει ψεύδη, κατηγορώντας εσφαλμένα τους μαθητές ότι υποβάλλουν έργα που δημιουργούνται από AI.[74][75]

Νόμοι και κανονιστικές διατάξεις

Επεξεργασία

Στην Κίνα, τα Ενδιάμεσα Μέτρα για τη Διαχείριση των Υπηρεσιών Παραγωγικής Τεχνητής Νοημοσύνης που εισήχθησαν από την Κινεζική Διοίκηση Κυβερνοχώρου ρυθμίζουν οποιαδήποτε γενετική τεχνητή νοημοσύνη που έχει ως αντικείμενο το κοινό. Περιλαμβάνει απαιτήσεις για τις εικόνες ή τα βίντεο που παράγονται, τους κανονισμούς σχετικά με τα δεδομένα κατάρτισης και την ποιότητα των ετικέτων, τους περιορισμούς στη συλλογή προσωπικών δεδομένων και δίνει μια κατευθυντήρια γραμμή κατά την οποία η παραγωγική ΑΙ πρέπει να "υποστηθεί στις σοσιαλιστικές βασικές αξίες".[76][77]

Ηνωμένες Πολιτείες

Επεξεργασία

Στις Ηνωμένες Πολιτείες, μια ομάδα εταιρειών, συμπεριλαμβανομένων των OpenAI, Alphabet και Meta, υπέγραψαν μια εθελοντική συμφωνία με την κυβέρνηση Τζο Μπάιντεν τον Ιούλιο του 2023, για να υδατογραφήσουν το περιεχόμενο που παράγεται από την AI.[78] Τον Οκτώβριο του 2023, η εκτελεστική εντολή 14110 ενσωματώθηκε στον Νόμο περί Αμυντικής Παραγωγής με σκοπό να απαιτήσει από όλες τις εταιρείες των ΗΠΑ να αναφέρουν πληροφορίες στην ομοσπονδιακή κυβέρνηση κατά την εκπαίδευση ορισμένων μοντέλων AI υψηλού αντίκτυπου.[79][80]

σε διακρατικές ενώσεις

Επεξεργασία

Ευρωπαϊκή Ένωση

Επεξεργασία

Στην Ευρωπαϊκή Ένωση, η προτεινόμενη νομοθετική πράξη περί Τεχνητής Νοημοσύνης περιλαμβάνει απαιτήσεις για τη δημοσιοποίηση πνευματικών δικαιωμάτων υλικού που χρησιμοποιείται για την εκπαίδευση γενετικών συστημάτων AI, και για την επισήμανση οποιασδήποτε παραγωγής που παράγεται από AI ως τέτοια.[81][82]

Πνευματική ιδιοκτησία

Επεξεργασία

Τα παραγωγικά συστήματα AI όπως το ChatGPT και το Midjourney εκπαιδεύονται σε μεγάλα, διαθέσιμα στο κοινό σύνολα δεδομένων που περιλαμβάνουν έργα που προστατεύονται από πνευματικά δικαιώματα. Οι προγραμματιστές της AI έχουν υποστηρίξει ότι η εκπαίδευση αυτή προστατεύεται με δίκαιη χρήση, ενώ ορισμένοι κάτοχοι πνευματικών δικαιωμάτων έχουν υποστηρίξουν ότι παραβιάζει τα δικαιώματά τους.[83]

Οι υποστηρικτές της εκπαίδευσης για τη δίκαιη χρήση έχουν υποστηρίξει ότι είναι μια μετασχηματιστική χρήση και δεν περιλαμβάνει τη διάθεση αντιγράφων των έργων που προστατεύονται από πνευματικά δικαιώματα στο κοινό.[84] Οι επικριτές υποστηρίζουν ότι οι παραγωγοί εικόνων όπως το Midjourney μπορούν να δημιουργήσουν σχεδόν πανομοιότυπα αντίγραφα ορισμένων εικόνων που προστατεύονται από πνευματικά δικαιώματα,[85] και ότι τα γενετικά προγράμματα AI ανταγωνίζονται το περιεχόμενο στο οποίο εκπαιδεύονται. [86]

Από το 2024, συνεχίζονται διάφορες αγωγές σχετικά με τη χρήση υλικού που προστατεύεται από πνευματικά δικαιώματα στην εκπαίδευση. Η Getty Images έχει μηνύσει την Stability AI για τη χρήση των εικόνων της για την εκπαίδευση της Stable Diffusion.[87] Τόσο η Authors Guild όσο και οι New York Times έχουν μηνύσει τη Microsoft και την OpenAI για τη χρήση των έργων τους για την εκπαίδευση του ChatGPT.[88][89]

Ανησυχίες

Επεξεργασία

Η ανάπτυξη της παραγωγικής ΤΝ έχει εγείρει ανησυχίες από κυβερνήσεις, επιχειρήσεις και πολίτες, με αποτέλεσμα διαμαρτυρίες, νομικές ενέργειες, κλήσεις για αναστολή των πειραμάτων ΤΝ και ενέργειες από πολλές κυβερνήσεις. Σε μια ενημέρωση του Συμβουλίου Ασφαλείας των Ηνωμένων Εθνών τον Ιούλιο του 2023, ο Γενικός Γραμματέας Αντόνιο Γκουτέρες δήλωσε ότι "η γενετική Τεχνητή Νοημοσύνη έχει τεράστια δυναμική και για το καλό και για το κακό σε κλίμακα", ότι η Τεχνητή Νοημοσύνη δύναται να "επιταχύνει την παγκόσμια ανάπτυξη" και να συμβάλει μεταξύ 10 και 15 τρισεκατομμυρίων δολαρίων ΗΠΑ (9-13.5 τρισεκατομμύρια ευρώ) στην παγκόσμια οικονομία μέχρι το 2030, αλλά ότι η κακόβουλη χρήση της "μπορεί να προκαλέσει τρομακτικό επίπεδο θανάτου και καταστροφής, ευρέως διαδεδομένο τραύμα και βαθιά ψυχολογική ζημιά σε αδιανόητη κλίμακα".[90]

Απώλειες θέσεων εργασίας

Επεξεργασία

Από τις πρώτες μέρες της ανάπτυξης της τεχνητής νοημοσύνης, υπήρξαν επιχειρήματα που προτάθηκαν από τον δημιουργό της ELIZA Γιόζεφ Βάιζενμπάουμ και άλλους, σχετικά με το αν οι εργασίες που μπορούν να γίνουν από υπολογιστές θα πρέπει πραγματικά να γίνουν απ' αυτούς, δεδομένης της διαφοράς μεταξύ υπολογιστών και ανθρώπων, και μεταξύ ποσοτικών υπολογισμών και ποιοτικών, βασισμένων σε αξίες κρίσεων.[91] Τον Απρίλιο του 2023, αναφέρθηκε ότι η τεχνητή νοημοσύνη παραγωγής εικόνων έχει οδηγήσει στο 70% των θέσεων εργασίας για εικονογράφους βιντεοπαιχνιδιών στην Κίνα να χαθούν.[92][93] Τον Ιούλιο του 2023, οι εξελίξεις στην γενετική τεχνητή νοημοσύνη συνέβαλαν στις διαμάχες εργασίας του 2023 στο Χόλιγουντ. Η Φραν Ντρέσερ, πρόεδρος της Ένωσης Ηθοποιών Κινηματογράφου των ΗΠΑ, δήλωσε ότι "η τεχνητή νοημοσύνη αποτελεί υπαρξιακή απειλή για τα δημιουργικά επαγγέλματα" κατά τη διάρκεια της απεργίας SAG-AFTRA του 2023.[94] Η AI της φωνητικής παραγωγής έχει θεωρηθεί ως μια πιθανή πρόκληση για τον τομέα της φωνητικής ηθοποιίας.[95][96]

Η διαμάχη της τεχνητής νοημοσύνης και των ανησυχιών για την απασχόληση μεταξύ των ομάδων που υποπροσωπεύονται παγκοσμίως παραμένει μια κρίσιμη πτυχή. Ενώ η ΤΝ υπόσχεται βελτιώσεις στην απόδοση και την απόκτηση δεξιοτήτων, οι ανησυχίες για την μετατόπιση θέσεων εργασίας και τις προκατειλημμένες διαδικασίες πρόσληψης διατηρούνται μεταξύ αυτών των ομάδων, όπως περιγράφεται σε έρευνες από την Fast Company. Για να αξιοποιηθούν οι τεχνολογίες ΤΝ για μια πιο ισότιμη κοινωνία, τα προληπτικά μέτρα περιλαμβάνουν τον μετριασμό των προκαταλήψεων, την προώθηση της διαφάνειας, τον σεβασμό της ιδιωτικής ζωής και της συγκατάθεσης και την υιοθέτηση ηθικού τρόπου σκέψης. Οι στρατηγικές περιλαμβάνουν την ανακατεύθυνση της πολιτικής στην έννοια της ρύθμισης, του ολοκληρωτικό σχεδιασμό και την δυνατότητας της εκπαίδευσης για εξατομικευμένη διδασκαλία με σκοπό την μεγιστοποίηση των οφελών, με τη μείωση των ζημιών.[97]

Τεχνολογίες «deepfake»

Επεξεργασία

Τα deepfakes[98] είναι τα μέσα που παράγονται από την τεχνητή νοημοσύνη που παίρνουν ένα άτομο σε μια υπάρχουσα εικόνα ή βίντεο και τα αντικαθιστούν με την ομοιότητα κάποιου άλλου χρησιμοποιώντας νευρωνκά δίκτυα.[99] Τα deepfakes έχουν συγκεντρώσει ευρεία προσοχή και ανησυχίες για τις χρήσεις τους σε deepfake πορνογραφικά βίντεο διασημότητων, revenge πορνό[δ], ψευδείς ειδήσεις και παραπληροφόρηση, οικονομική απάτη και επέμβαση σε εκλογές από τρίτους.[100] Αυτά έχουν προκαλέσει απαντήσεις τόσο από την βιομηχανία όσο και από την κυβέρνηση για να εντοπίσουν και να περιορίσουν τη χρήση τους.[101][102]

Τον Ιούλιο του 2023, η εταιρεία ελέγχου γεγονότων Logically διαπίστωσε ότι τα δημοφιλή παραγωγικά μοντέλα AI Midjourney, DALL-E 2 και Stable Diffusion παράγουν εύλογα εικόνες παραπληροφόρησης όταν τους ζητηθεί να το κάνουν, όπως εικόνες εκλογικής απάτης στις Ηνωμένες Πολιτείες και μουσουλμάνες γυναίκες στο Μπαράτ που υποτίθεται ότι υποστήριζαν το κόμμα Μπαρατίγια Τζανάτα (κόμμα το οποίο υποστηρίζει την ινδικότητα).[103][104]

Τον Απρίλιο του 2024, μια ερευνητική εργασία πρότεινε τη χρήση blockchain (τεχνολογία διανεμημένου λογισμικού) για την προώθηση της "διαφάνειας, επαληθεύσιμης δυνατότητας και αποκέντρωσης στην ανάπτυξη και χρήση της AI".[105]

Ηχητικά deepfakes

Επεξεργασία

Οι περιπτώσεις των χρηστών που κάνουν κατάχρηση του λογισμικού για να παράγουν αμφιλεγόμενες δηλώσεις με φωνές σχεδόν πανομοιότυπες με αυτές δημόσιων αξιωματούχων και άλλων διάσημων ατόμων έχουν εγείρει ηθικές ανησυχίες σχετικά με την AI δημιουργίας φωνής[106]. Σε απάντηση, εταιρείες όπως η ElevenLabs έχουν δηλώσει ότι θα εργάζονται για τη μείωση της δυνητικής κατάχρησης μέσω διασφαλισμών και επαλήθευσης ταυτότητας.[107]

Ανησυχίες έχουν προκύψει από τη μουσική που δημιουργείται από την ΑΙ. Το ίδιο λογισμικό που χρησιμοποιείται για την κλωνοποίηση φωνών έχει χρησιμοποιηθεί στις φωνές διάσημων μουσικών για να δημιουργήσουν τραγούδια που μιμούνται τις φωνές τους, κερδίζοντας τόσο τεράστια δημοτικότητα όσο και κριτική.[108] Παρόμοιες τεχνικές έχουν επίσης χρησιμοποιηθεί για τη δημιουργία βελτιωμένης ποιότητας ή πλήρους διάρκειας εκδόσεων τραγουδιών που έχουν διαρρεύσει ή δεν έχουν ακόμη κυκλοφορήσει. [109]

Η παραγωγική νοημοσύνη έχει επίσης χρησιμοποιηθεί για τη δημιουργία νέων ψηφιακών καλλιτεχνικών προσωπικοτήτων, με ορισμένες από αυτές να λαμβάνουν αρκετή προσοχή για να λάβουν δίσκους από μεγάλες ετικέτες[110]. Οι προγραμματιστές αυτών των εικονικών καλλιτεχνών έχουν επίσης αντιμετωπίσει μερίδιο κριτικής για τα προσωποποιημένα προγράμματα τους, συμπεριλαμβανομένης της αντίδρασης για την «απανθρωποποιήση» μιας τέχνης, καθώς και τη δημιουργία καλλιτεχνών που δημιουργούν μη ρεαλιστικές ή ανήθικες προσκλήσεις στο κοινό τους.[111]

Εγκληματική δραστηριότητα στον κυβερνοχώρο

Επεξεργασία

Η ικανότητα της παραγωγικής AI να δημιουργεί ρεαλιστικό ψεύτικο περιεχόμενο έχει γίνει αντικείμενο εκμετάλλευσης σε πολλούς τύπους εγκλήματος στον κυβερνοχώρο, συμπεριλαμβανομένων των απάτων phishing.[112] Το deepfake video και ηχητικό έχουν χρησιμοποιηθεί για να δημιουργήσουν παραπληροφόρηση και απάτη. Ο πρώην αρχι-ειδικός σε θέματα απάτης της Google, Σούμπαν Γκοσεμαγιουμντέρ, έχει προβλέψει ότι ενώ τα deepfake βίντεο αρχικά δημιούργησαν αναταραχή στα μέσα ενημέρωσης, σύντομα θα γίνουν κοινά και ως αποτέλεσμα, πιο επικίνδυνα.[113] Επιπλέον, τα μοντέλα μεγάλων γλωσσών και άλλες μορφές γενετικής τεχνητής νοημοσύνης κειμένου έχουν δημιουργήσει πλαστές κριτικές σε ιστοσελίδες ηλεκτρονικού εμπορίου για να αυξήσουν τις βαθμολογίες[114]. Οι εγκληματίες στον κυβερνοχώρο έχουν δημιουργήσει μεγάλα μοντέλα γλώσσας που επικεντρώνονται στην απάτη, συμπεριλαμβανομένων των WormGPT και FraudGPT. [115]

Πρόσφατη έρευνα που έγινε το 2023 αποκάλυψε ότι η παραγωγική τεχνητή νοημοσύνη έχει αδυναμίες που μπορούν να χειραγωγηθούν από εγκληματίες για να εξαγάγουν επιβλαβείς πληροφορίες παρακάμπτοντας τις ηθικές εγγυήσεις. Η μελέτη παρουσιάζει παραδείγματα επιθέσεων που έγιναν στο ChatGPT, συμπεριλαμβανομένων των Jailbreaks και της αντιστροφής ψυχολογίας. Επιπλέον, κακόβουλοι άνθρωποι μπορούν να χρησιμοποιήσουν το ChatGPT για επιθέσεις κοινωνική μηχανική και επιθέσεις phishing, αποκαλύπτοντας την επιβλαβή πλευρά αυτών των τεχνολογιών.[116]

Αναφορά σε βιομηχανικούς γίγαντες

Επεξεργασία

Η εκπαίδευση των μοντέλων AI στα σύνορα απαιτεί τεράστια ποσότητα υπολογιστικής ισχύος. Συνήθως μόνο οι μεγάλες εταιρείες τεχνολογίας έχουν τα οικονομικά μέσα για να κάνουν τέτοιες επενδύσεις. Μικρές νεοσύστατες επιχειρήσεις όπως η Cohere και το OpenAI καταλήγουν να αγοράζουν πρόσβαση στα κέντρα δεδομένων από την Google και την Microsoft αντίστοιχα.[117]

Ποιότητα του περιεχομένου

Επεξεργασία

Ο New York Times ορίζει "σλόπ" ως κάτι ανάλογο με το σπαμ: "κακό ή ανεπιθύμητο περιεχόμενο Τ.Ν. στα κοινωνικά μέσα ενημέρωσης, την τέχνη, τα βιβλία και ... στα αποτελέσματα αναζήτησης".[118] Οι δημοσιογράφοι έχουν εκφράσει ανησυχίες για την κλίμακα της χαμηλής ποιότητας περιεχομένου που παράγεται σε σχέση με τη μέτρηση περιεχομένων των κοινωνικών μέσων ενημέρωσής[119], τα χρηματικά κίνητρα από τις εταιρείες κοινωνικών μέσων ενημέρωσης για τη διάδοση τέτοιου περιεχομένου,[119][120] ψευδή πολιτικά μηνύματα,[120] σπαμ των υποβολών επιστημονικών ερευνητικών εγγράφων[121], αυξημένο χρόνο και προσπάθεια για να βρεθεί υψηλότερη ποιότητα ή επιθυμητό περιεχόμενό στο Διαδίκτυο,[122] η αναζήτηση του περιεχομένου που παράγεται από μηχανές αναζήτησής, [123] και στην ίδια τη δημοσιογραφία.[124]

Μια εργασία που δημοσιεύτηκε από ερευνητές στο Amazon Web Services AI Labs διαπίστωσε ότι πάνω από το 57% των προτάσεων ενός δείγματος πάνω από 6 δισεκατομμυρίων προτάσεων του Common Crawl, μια στιγμιότυπη λήψη σελίδων, ήταν μεταφρασμένες από μηχανή. Πολλές από αυτές τις αυτοματοποιημένες μεταφράσεις θεωρήθηκαν χαμηλότερης ποιότητας, ειδικά επειδή οι προτάσεις μεταφράστηκαν σε τουλάχιστον τρεις γλώσσες. Πολλές γλώσσες χαμηλότερων πόρων (π.χ. Ουολόφ, Κόσα) μεταφράστηκαν σε περισσότερες γλώσσες από τις γλώσσες υψηλότερων πηγών (π.χ. Αγγλικά, Γαλλικά).[125][126]

Τον Σεπτέμβριο του 2024, η Ρόμπιν Σπέρ, συγγραφέας του wordfreq, μιας βάσης δεδομένων ανοιχτού κώδικα που υπολογίζει τις συχνότητες λέξεων με βάση το κείμενο από το Διαδίκτυο, ανακοίνωσε ότι είχε σταματήσει να ενημερώνει τα δεδομένα για διάφορους λόγους: υψηλά κόστη για την απόκτηση δεδομένων από το Reddit και το Twitter, υπερβολική έμφαση στην γενετική τεχνητή νοημοσύνη σε σύγκριση με άλλες μεθόδους στην κοινότητα επεξεργασία φυσικής γλώσσας και ότι "η παραγωγική νοημοσύνη έχει μολυνθεί τα δεδομένα".[127]

Η υιοθέτηση γενετικών εργαλείων AI οδήγησε σε έκρηξη περιεχομένου που παράγεται από AI σε πολλαπλά πεδία. Μια μελέτη από το Πανεπιστημιακό Κολλέγιο του Λονδίνου εκτιμά ότι το 2023, περισσότερα από 60000 επιστημονικά άρθρα - πάνω από το 1% όλων των δημοσιεύσεων - πιθανότατα γράφτηκαν με τη βοήθεια LLM.[128] Σύμφωνα με το Ινστιτούτο Ανθρώπινης Επιστημονικής Τεχνικής Τεχνητής Τεχνης του Πανεπιστημίου του Στάνφορντ, περίπου το 17.5% των πρόσφατα δημοσιευμένων εργαστηρίων στον τομέα της πληροφορικής και το 16.9% του κειμένου αναθεώρησης από ομοτίμους ενσωματώνουν τώρα περιεχόμενο που παράγεται από LLM. [129]

Το οπτικό περιεχόμενο ακολουθεί μια παρόμοια τάση. Από την έναρξη του DALL-E 2 το 2022, εκτιμάται ότι έχουν δημιουργηθεί κατά μέσο όρο 34 εκατομμύρια εικόνες καθημερινά. Από τον Αύγουστο του 2023, περισσότερες από 15 δισεκατομμύρια εικόνες είχαν δημιουργηθεί χρησιμοποιώντας αλγόριθμους κειμένου σε εικόνα, με το 80% αυτών να δημιουργούνται από μοντέλα που βασίζονται στο Stable Diffusion.[130]

Εάν το περιεχόμενο που παράγεται από την ΑΙ συμπεριληφθεί σε νέες αναζήτηση δεδομένων από το Διαδίκτυο για πρόσθετη εκπαίδευση των μοντέλων της ΑΙ, μπορεί να εμφανιστούν ελαττώματα στα αποτελέσματα των μοντέλων.[131] Η εκπαίδευση ενός μοντέλου AI αποκλειστικά με βάση την παραγωγή ενός άλλου μοντέλου ΑΙ παράγει ένα μοντέλο χαμηλότερης ποιότητας. Η επανάληψη αυτής της διαδικασίας, όπου κάθε νέο μοντέλο εκπαιδεύεται στην παραγωγή του προηγούμενου μοντέλου, οδηγεί σε προοδευτική υποβάθμιση και τελικά οδηγεί σε "καταρρεύση του μοντέλου" μετά από πολλαπλές επαναλήψεις.[132] Έχουν διεξαχθεί δοκιμές με αναγνώριση μοτίβων χειρογραφημένων γραμμάτων και με εικόνες ανθρώπινων προσώπων.[133] Ως εκ τούτου, η αξία των δεδομένων που συλλέγονται από πραγματικές ανθρώπινες αλληλεπιδράσεις με συστήματα μπορεί να γίνει όλο και πιο πολύτιμη με την παρουσία περιεχομένου που παράγεται από το LLMs σε δεδομένα που αναζητούνται από το Διαδίκτυο.

Από την άλλη πλευρά, τα συνθετικά δεδομένα χρησιμοποιούνται συχνά ως εναλλακτική λύση στα δεδομένα που παράγονται από γεγονότα του πραγματικού κόσμου. Τέτοιες πληροφορίες μπορούν να χρησιμοποιηθούν για την επικύρωση μαθηματικών μοντέλων και για την εκπαίδευση μοντέλων μηχανικής μάθησης, ενώ διατηρείται η ιδιωτική ζωή των χρηστών,[134] συμπεριλαμβανομένων των δομημένων δεδομένων.[135] Η προσέγγιση δεν περιορίζεται στην παραγωγή κειμένου. Η παραγωγή εικόνας έχει χρησιμοποιηθεί για την εκπαίδευση μοντέλων υπολογιστικής όρασης.[136]

Κατάχρηση στη δημοσιογραφία

Επεξεργασία

Τον Ιανουάριο του 2023, το Futurism.com δημοσίευσε την ιστορία ότι το CNET είχε χρησιμοποιήσει ένα άγνωστο εσωτερικό εργαλείο AI για να γράψει τουλάχιστον 77 από τις ιστορίες του. Το CNET δημοσίευε διορθώσεις σε 41 από τις ιστορίες.[137]

Τον Απρίλιο του 2023, η γερμανική εφημερίδα Die Aktuelle δημοσίευσε μια ψεύτικη συνέντευξη που δημιουργήθηκε από την τεχνητή νοημοσύνη με τον πρώην πιλότο F1 Μίκαελ Σουμάχερ, ο οποίος δεν είχε κάνει δημόσιες εμφανίσεις από το 2013 μετά από τραυματισμό στον εγκέφαλο σε ένα ατύχημα σκι. Αν και η συνέντευξη περιλάμβανε μια αναγνώριση στο τέλος ότι δημιουργήθηκε από την ΑΙ. Ο επικεφαλής συντάκτης απολύθηκε λίγο αργότερα εν μέσω της διαμάχης.[138]

Υπάρχουν κι άλλες πηγές που έχουν δημοσιεύσει άρθρα όπου το περιεχόμενο και/ή η υπογραφή των οποίων έχει επιβεβαιωθεί ή υποψιαστεί ότι δημιουργούνται από μοντέλα παραγωγικής ΤΝ - συχνά με ψευδές περιεχόμενοι, λάθη και/ή μη αποκάλυψη της χρήσης παραγωγικής TΝ.

Παραπομπές

Επεξεργασία
  1. Newsom, Gavin· Weber, Shirley N. (6 Σεπτεμβρίου 2023). «Executive Order N-12-23» (PDF). Executive Department, State of California. Αρχειοθετήθηκε (PDF) από το πρωτότυπο στις 21 Φεβρουαρίου 2024. Ανακτήθηκε στις 7 Σεπτεμβρίου 2023. 
  2. Pinaya, Walter H. L.; Graham, Mark S.; Kerfoot, Eric; Tudosiu, Petru-Daniel; Dafflon, Jessica; Fernandez, Virginia; Sanchez, Pedro; Wolleb, Julia και άλλοι. (2023). «Generative AI for Medical Imaging: extending the MONAI Framework». . 

  3. Griffith, Erin· Metz, Cade (27 Ιανουαρίου 2023). «Anthropic Said to Be Closing In on $300 Million in New A.I. Funding». The New York Times. Αρχειοθετήθηκε από το πρωτότυπο στις 9 Δεκεμβρίου 2023. Ανακτήθηκε στις 14 Μαρτίου 2023. 
  4. Lanxon, Nate; Bass, Dina; Davalos, Jackie (March 10, 2023). «A Cheat Sheet to AI Buzzwords and Their Meanings». Bloomberg News. Αρχειοθετήθηκε από το πρωτότυπο στις November 17, 2023. https://web.archive.org/web/20231117140835/https://news.bloomberglaw.com/tech-and-telecom-law/a-cheat-sheet-to-ai-buzzwords-and-their-meanings-quicktake. Ανακτήθηκε στις March 14, 2023. 
  5. Pasick, Adam (2023-03-27). «Artificial Intelligence Glossary: Neural Networks and Other Terms Explained» (στα αγγλικά). The New York Times. ISSN 0362-4331. Αρχειοθετήθηκε από το πρωτότυπο στις September 1, 2023. https://web.archive.org/web/20230901183440/https://www.nytimes.com/article/ai-artificial-intelligence-glossary.html. Ανακτήθηκε στις 2023-04-22. 
  6. Karpathy, Andrej· Abbeel, Pieter· Brockman, Greg· Chen, Peter· Cheung, Vicki· Duan, Yan· Goodfellow, Ian· Kingma, Durk· Ho, Jonathan (16 Ιουνίου 2016). «Generative models». OpenAI. Αρχειοθετήθηκε από το πρωτότυπο στις 17 Νοεμβρίου 2023. Ανακτήθηκε στις 15 Μαρτίου 2023. 
  7. Griffith, Erin· Metz, Cade (27 Ιανουαρίου 2023). «Anthropic Said to Be Closing In on $300 Million in New A.I. Funding». The New York Times. Αρχειοθετήθηκε από το πρωτότυπο στις 9 Δεκεμβρίου 2023. Ανακτήθηκε στις 14 Μαρτίου 2023. 
  8. Brynjolfsson, Erik; Li, Danielle; Raymond, Lindsey R. (April 2023), Generative AI at Work, Working Paper Series, doi:10.3386/w31161, https://www.nber.org/papers/w31161, ανακτήθηκε στις 2024-01-21 
  9. «Don't fear an AI-induced jobs apocalypse just yet». The Economist. 6 Μαρτίου 2023. Αρχειοθετήθηκε από το πρωτότυπο στις 17 Νοεμβρίου 2023. Ανακτήθηκε στις 14 Μαρτίου 2023. 
  10. Coyle, Jake (27 Σεπτεμβρίου 2023). «In Hollywood writers' battle against AI, humans win (for now)». AP News. Associated Press. Αρχειοθετήθηκε από το πρωτότυπο στις 3 Απριλίου 2024. Ανακτήθηκε στις 26 Ιανουαρίου 2024. 
  11. Harreis, H.· Koullias, T.· Roberts, Roger. «Generative AI: Unlocking the future of fashion». Αρχειοθετήθηκε από το πρωτότυπο στις 17 Νοεμβρίου 2023. Ανακτήθηκε στις 14 Μαρτίου 2023. 
  12. «How Generative AI Can Augment Human Creativity». Harvard Business Review. 2023-06-16. ISSN 0017-8012. Αρχειοθετήθηκε από το πρωτότυπο στις June 20, 2023. https://web.archive.org/web/20230620073042/https://hbr.org/2023/07/how-generative-ai-can-augment-human-creativity. Ανακτήθηκε στις 2023-06-20. 
  13. Hendrix, Justin (16 Μαΐου 2023). «Transcript: Senate Judiciary Subcommittee Hearing on Oversight of AI». techpolicy.press. Αρχειοθετήθηκε από το πρωτότυπο στις 17 Νοεμβρίου 2023. Ανακτήθηκε στις 19 Μαΐου 2023. 
  14. Simon, Felix M.; Altay, Sacha; Mercier, Hugo (2023-10-18). «Misinformation reloaded? Fears about the impact of generative AI on misinformation are overblown» (στα αγγλικά). Harvard Kennedy School Misinformation Review. doi:10.37016/mr-2020-127. Αρχειοθετήθηκε από το πρωτότυπο στις November 17, 2023. https://web.archive.org/web/20231117152241/https://misinforeview.hks.harvard.edu/article/misinformation-reloaded-fears-about-the-impact-of-generative-ai-on-misinformation-are-overblown/. Ανακτήθηκε στις November 16, 2023. 
  15. «New AI systems collide with copyright law». BBC News. 2023-08-01. https://www.bbc.co.uk/news/business-66231268. Ανακτήθηκε στις 2024-09-28. 
  16. Crevier, Daniel (1993). AI: The Tumultuous Search for Artificial Intelligence (στα Αγγλικά). New York, New York: BasicBooks. σελ. 109. ISBN 0-465-02997-3. 
  17. Newquist, H. P. (1994). The Brain Makers: Genius, Ego, And Greed In The Quest For Machines That Think (στα Αγγλικά). New York: Macmillan/SAMS. σελίδες 45–53. ISBN 978-0-672-30412-5. 
  18. Sharkey, Noel (July 4, 2007), A programmable robot from 60 AD, 2611, New Scientist, https://www.newscientist.com/blog/technology/2007/07/programmable-robot-from-60ad.html, ανακτήθηκε στις October 22, 2019 
  19. Brett, Gerard (July 1954), «The Automata in the Byzantine "Throne of Solomon"», Speculum 29 (3): 477–487, doi:10.2307/2846790, ISSN 0038-7134 
  20. kelinich (8 Μαρτίου 2014). «Maillardet's Automaton». The Franklin Institute (στα Αγγλικά). Αρχειοθετήθηκε από το πρωτότυπο στις 24 Αυγούστου 2023. Ανακτήθηκε στις 24 Αυγούστου 2023. 
  21. Grinstead, Charles Miller· Snell, James Laurie (1997). Introduction to Probability (στα Αγγλικά). American Mathematical Society. σελίδες 464–466. ISBN 978-0-8218-0749-1. 
  22. Bremaud, Pierre (9 March 2013). Markov Chains: Gibbs Fields, Monte Carlo Simulation, and Queues. Springer Science & Business Media. σελ. ix. ISBN 978-1-4757-3124-8.  More than one of |archivedate= και |archive-date= specified (βοήθεια); Ελέγξτε τις τιμές ημερομηνίας στο: |archive-date= (βοήθεια)
  23. Hayes, Brian (2013). «First Links in the Markov Chain». American Scientist 101 (2): 92. doi:10.1511/2013.101.92. ISSN 0003-0996. Αρχειοθετήθηκε από το πρωτότυπο στις May 7, 2024. https://web.archive.org/web/20240507094335/https://www.americanscientist.org/article/first-links-in-the-markov-chain. Ανακτήθηκε στις September 24, 2023. 
  24. Fine, Shai; Singer, Yoram; Tishby, Naftali (1998-07-01). «The Hierarchical Hidden Markov Model: Analysis and Applications» (στα αγγλικά). Machine Learning 32 (1): 41–62. doi:10.1023/A:1007469218079. ISSN 1573-0565. 
  25. Bergen, Nathan; Huang, Angela (2023). «A Brief History of Generative AI». Dichotomies: Generative AI: Navigating Towards a Better Future (2): 4. Αρχειοθετήθηκε από το πρωτότυπο στις August 10, 2023. https://web.archive.org/web/20230810230710/https://www2.deloitte.com/content/dam/Deloitte/us/Documents/consulting/us-gen-ai-dichotomies.pdf. Ανακτήθηκε στις August 8, 2023. 
  26. 27,0 27,1 Alting, Leo; Zhang, Hongchao (1989). «Computer aided process planning: the state-of-the-art survey». The International Journal of Production Research 27 (4): 553–585. doi:10.1080/00207548908942569. Αρχειοθετήθηκε από το πρωτότυπο στις May 7, 2024. https://web.archive.org/web/20240507094335/https://www.researchgate.net/publication/236649325_Computer_Aided_Process_Planning_The_State-of-the-Art_Survey. Ανακτήθηκε στις October 3, 2023. 
  27. Chien, Steve (1998). «Automated planning and scheduling for goal-based autonomous spacecraft». IEEE Intelligent Systems and Their Applications 13 (5): 50–55. doi:10.1109/5254.722362. 
  28. Burstein, Mark H., επιμ. (1994). ARPA/Rome Laboratory Knowledge-based Planning and Scheduling Initiative Workshop Proceedings. The Advanced Research Projects Agency, Department of Defense, and Rome Laboratory, US Air Force, Griffiss AFB. σελ. 219. ISBN 155860345X. 
  29. Pell, Barney· Bernard, Douglas E. (1998). Bekey, George A., επιμ. An Autonomous Spacecraft Agent Prototype. Autonomous Robots Volume 5, No. 1. σελίδες 29–45. Our deliberator is a traditional generative AI planner based on the HSTS planning framework (Muscettola, 1994), and our control component is a traditional spacecraft attitude control system (Hackney et al. 1993). We also add an architectural component explicitly dedicated to world modeling (the mode identifier), and distinguish between control and monitoring. 
  30. Jebara, Tony (2012). Machine learning: discriminative and generative. 755. Springer Science & Business Media. 
  31. Cao, Yihan; Li, Siyu; Liu, Yixin; Yan, Zhiling; Dai, Yutong; Yu, Philip S.; Sun, Lichao (7 March 2023). «A Comprehensive Survey of AI-Generated Content (AIGC): A History of Generative AI from GAN to ChatGPT».
     [cs.AI]
    .
     

  32. «finetune-transformer-lm». GitHub. Αρχειοθετήθηκε από το πρωτότυπο στις 19 Μαΐου 2023. Ανακτήθηκε στις 19 Μαΐου 2023. 
  33. Radford, Alec; Wu, Jeffrey; Child, Rewon; Luan, David; Amodei, Dario; Sutskever, Ilya; others (2019). «Language models are unsupervised multitask learners». OpenAI Blog 1 (8): 9. 
  34. Bubeck, Sébastien; Chandrasekaran, Varun; Eldan, Ronen; Gehrke, Johannes; Horvitz, Eric; Kamar, Ece; Lee, Peter; Lee, Yin Tat και άλλοι. (March 22, 2023). «Sparks of Artificial General Intelligence: Early experiments with GPT-4».
     [cs.CL]
    .
     

  35. Schlagwein, Daniel; Willcocks, Leslie (September 13, 2023). «ChatGPT et al: The Ethics of Using (Generative) Artificial Intelligence in Research and Science». Journal of Information Technology 38 (2): 232–238. doi:10.1177/02683962231200411. 
  36. «Meta's open-source ImageBind AI aims to mimic human perception». 9 Μαΐου 2023. Αρχειοθετήθηκε από το πρωτότυπο στις 14 Μαρτίου 2024. Ανακτήθηκε στις 14 Μαρτίου 2024. 
  37. «Meta open-sources multisensory AI model that combines six types of data». 9 Μαΐου 2023. Αρχειοθετήθηκε από το πρωτότυπο στις 14 Μαρτίου 2024. Ανακτήθηκε στις 14 Μαρτίου 2024. 
  38. Baptista, Eduardo (9 July 2024). «China leads the world in adoption of generative AI, survey shows». Reuters. https://www.reuters.com/technology/artificial-intelligence/china-leads-world-adoption-generative-ai-survey-shows-2024-07-09/. Ανακτήθηκε στις 14 July 2024. 
  39. «A History of Generative AI: From GAN to GPT-4». 21 Μαρτίου 2023. Αρχειοθετήθηκε από το πρωτότυπο στις 10 Ιουνίου 2023. Ανακτήθηκε στις 28 Απριλίου 2023. 
  40. «Explainer: What is Generative AI, the technology behind OpenAI's ChatGPT?». Reuters. March 17, 2023. Αρχειοθετήθηκε από το πρωτότυπο στις March 30, 2023. https://web.archive.org/web/20230330175046/https://www.reuters.com/technology/what-is-generative-ai-technology-behind-openais-chatgpt-2023-03-17/. Ανακτήθηκε στις March 17, 2023. 
  41. Bommasani, R.; Hudson, D. A.; Adeli, E.; Altman, R.; Arora, S.; von Arx, S.; Bernstein, M. S.; Bohg, J. και άλλοι. (2021-08-16). «On the opportunities and risks of foundation models».
     [cs.LG]
    .
     

  42. Chen, Ming; Tworek, Jakub; Jun, Hongyu; Yuan, Qinyuan; Pinto, Hanyu Philippe De Oliveira; Kaplan, Jerry; Edwards, Haley; Burda, Yannick και άλλοι. (2021-07-06). «Evaluating Large Language Models Trained on Code».
     [cs.LG]
    .
     

  43. Epstein, Ziv; Hertzmann, Aaron; Akten, Memo; Farid, Hany; Fjeld, Jessica; Frank, Morgan R.; Groh, Matthew; Herman, Laura και άλλοι. (2023). «Art and the science of generative AI». Science 380 (6650): 1110–1111. doi:10.1126/science.adh4451. PMID 37319193. Bibcode2023Sci...380.1110E. 
  44. Ramesh, Aditya; Pavlov, Mikhail; Goh, Gabriel; Gray, Scott; Voss, Chelsea; Radford, Alec; Chen, Mark; Sutskever, Ilya (2021). «Zero-shot text-to-image generation». PMLR, pp. 8821–8831. 
  45. Desai, Saahil (17 Ιουλίου 2023). «A Voicebot Just Left Me Speechless». The Atlantic (στα Αγγλικά). Αρχειοθετήθηκε από το πρωτότυπο στις 8 Δεκεμβρίου 2023. Ανακτήθηκε στις 28 Νοεμβρίου 2023. 
  46. Agostinelli, Andrea (26 January 2023). «MusicLM: Generating Music From Text». MISSING LINK. . 
  47. Dalugdug, Mandy (3 Αυγούστου 2023). «Meta in June said that it used 20,000 hours of licensed music to train MusicGen, which included 10,000 "high-quality" licensed music tracks. At the time, Meta's researchers outlined in a paper the ethical challenges that they encountered around the development of generative AI models like MusicGen». Αρχειοθετήθηκε από το πρωτότυπο στις 15 Αυγούστου 2023. 
  48. «Jay-Z's Delaware producer sparks debate over AI rights». Αρχειοθετήθηκε από το πρωτότυπο στις 27 Φεβρουαρίου 2024. Ανακτήθηκε στις 27 Φεβρουαρίου 2024. 
  49. «10 "Best" AI Music Generators (April 2024) - Unite.AI». 19 Οκτωβρίου 2022. Αρχειοθετήθηκε από το πρωτότυπο στις 29 Ιανουαρίου 2024. Ανακτήθηκε στις 27 Φεβρουαρίου 2024. 
  50. Metz, Cade (2024-02-15). «OpenAI Unveils A.I. That Instantly Generates Eye-Popping Videos» (στα αγγλικά). The New York Times. ISSN 0362-4331. Αρχειοθετήθηκε από το πρωτότυπο στις February 15, 2024. https://web.archive.org/web/20240215220626/https://www.nytimes.com/2024/02/15/technology/openai-sora-videos.html. Ανακτήθηκε στις 2024-02-16. 
  51. Metz, Cade (4 Απριλίου 2023). «Instant Videos Could Represent the Next Leap in A.I. Technology». The New York Times (στα Αγγλικά). Αρχειοθετήθηκε από το πρωτότυπο στις 5 Απριλίου 2023. Ανακτήθηκε στις 5 Απριλίου 2023. 
  52. Wong, Queenie (29 Σεπτεμβρίου 2022). «Facebook Parent Meta's AI Tool Can Create Artsy Videos From Text». cnet.com. Αρχειοθετήθηκε από το πρωτότυπο στις 5 Απριλίου 2023. Ανακτήθηκε στις 4 Απριλίου 2023. 
  53. Yang, Sherry· Du, Yilun (12 Απριλίου 2023). «UniPi: Learning universal policies via text-guided video generation». Google Research, Brain Team. Google AI Blog. Αρχειοθετήθηκε από το πρωτότυπο στις 24 Μαΐου 2023. 
  54. Brohan, Anthony (2023). «RT-2: Vision-Language-Action Models Transfer Web Knowledge to Robotic Control». MISSING LINK. . 
  55. Abdullahi, Aminu (17 Νοεμβρίου 2023). «10 Best Artificial Intelligence (AI) 3D Generators». eWEEK. Αρχειοθετήθηκε από το πρωτότυπο στις 7 Μαΐου 2024. Ανακτήθηκε στις 6 Φεβρουαρίου 2024. 
  56. «Slash CAD model build times with new AI-driven part creation methodology | GlobalSpec». Αρχειοθετήθηκε από το πρωτότυπο στις 23 Ιανουαρίου 2024. Ανακτήθηκε στις 6 Φεβρουαρίου 2024. 
  57. «The Role of Artificial Intelligence (AI) in the CAD Industry». 22 Μαρτίου 2023. Αρχειοθετήθηκε από το πρωτότυπο στις 9 Φεβρουαρίου 2024. Ανακτήθηκε στις 6 Φεβρουαρίου 2024. 
  58. Sabin, Sam (30 Ιουνίου 2023). «GitHub has a vision to make code more secure by design». Axios Codebook. Αρχειοθετήθηκε από το πρωτότυπο στις 15 Αυγούστου 2023. Ανακτήθηκε στις 15 Αυγούστου 2023. 
  59. Vincent, James (20 Μαρτίου 2023). «Text-to-video AI inches closer as startup Runway announces new model». The Verge. Αρχειοθετήθηκε από το πρωτότυπο στις 27 Σεπτεμβρίου 2023. Ανακτήθηκε στις 15 Αυγούστου 2023. Text-to-video is the next frontier for generative AI, though current output is rudimentary. Runway says it’ll be making its new generative video model, Gen-2, available to users in ‘the coming weeks.’ 
  60. Vanian, Jonathan (16 Μαρτίου 2023). «Microsoft adds OpenAI technology to Word and Excel». CNBC. Αρχειοθετήθηκε από το πρωτότυπο στις 15 Αυγούστου 2023. Ανακτήθηκε στις 15 Αυγούστου 2023. Microsoft is bringing generative artificial intelligence technologies such as the popular ChatGPT chatting app to its Microsoft 365 suite of business software....the new A.I. features, dubbed Copilot, will be available in some of the company's most popular business apps, including Word, PowerPoint and Excel. 
  61. Wilson, Mark (15 Αυγούστου 2023). «The app's Memories feature just got a big upgrade». TechRadar. Αρχειοθετήθηκε από το πρωτότυπο στις 15 Αυγούστου 2023. The Google Photos app is getting a redesigned, AI-powered Memories feature...you'll be able to use generative AI to come up with some suggested names like "a desert adventure". 
  62. Sullivan, Laurie (23 Μαΐου 2023). «Adobe Adds Generative AI To Photoshop». MediaPost. Αρχειοθετήθηκε από το πρωτότυπο στις 15 Αυγούστου 2023. Ανακτήθηκε στις 15 Αυγούστου 2023. Generative artificial intelligence (AI) will become one of the most important features for creative designers and marketers. Adobe on Tuesday unveiled a Generative Fill feature in Photoshop to bring Firefly's AI capabilities into design. 
  63. Michael Nuñez (19 Ιουλίου 2023). «LLaMA 2: How to access and use Meta's versatile open-source chatbot right now». VentureBeat. Αρχειοθετήθηκε από το πρωτότυπο στις 3 Νοεμβρίου 2023. Ανακτήθηκε στις 15 Αυγούστου 2023. If you want to run LLaMA 2 on your own machine or modify the code, you can download it directly from Hugging Face, a leading platform for sharing AI models. 
  64. Pounder, Les (25 Μαρτίου 2023). «How To Create Your Own AI Chatbot Server With Raspberry Pi 4». Αρχειοθετήθηκε από το πρωτότυπο στις 15 Αυγούστου 2023. Ανακτήθηκε στις 15 Αυγούστου 2023. Using a Pi 4 with 8GB of RAM, you can create a ChatGPT-like server based on LLaMA. 
  65. Kemper, Jonathan (10 Νοεμβρίου 2022). «"Draw Things" App brings Stable Diffusion to the iPhone». The Decoder. Αρχειοθετήθηκε από το πρωτότυπο στις 15 Αυγούστου 2023. Ανακτήθηκε στις 15 Αυγούστου 2023. Draw Things is an app that brings Stable Diffusion to the iPhone. The AI images are generated locally, so you don't need an Internet connection. 
  66. Witt, Allan (7 Ιουλίου 2023). «Best Computer to Run LLaMA AI Model at Home (GPU, CPU, RAM, SSD)». Αρχειοθετήθηκε από το πρωτότυπο στις 15 Αυγούστου 2023. Ανακτήθηκε στις 15 Αυγούστου 2023. To run LLaMA model at home, you will need a computer build with a powerful GPU that can handle the large amount of data and computation required for inferencing. 
  67. Westover, Brian (28 Σεπτεμβρίου 2023). «Who Needs ChatGPT? How to Run Your Own Free and Private AI Chatbot». Ziff Davis. Αρχειοθετήθηκε από το πρωτότυπο στις 7 Ιανουαρίου 2024. Ανακτήθηκε στις 7 Ιανουαρίου 2024. 
  68. @karpathy. «I pretty much only trust two LLM evals right now» (Tweet) – μέσω Twitter.  Missing or empty |date= (help)
  69. @ylecun. «Nabla's shift from ChatGPT to open source LLMs...» (Tweet) – μέσω Twitter.  Missing or empty |date= (help)
  70. @ylecun. «Open source platforms *increase* safety and security» (Tweet) – μέσω Twitter.  Missing or empty |date= (help)
  71. «5 free software to recognise fake AI-generated images» (στα Ιταλικά). 28 Οκτωβρίου 2023. Αρχειοθετήθηκε από το πρωτότυπο στις 29 Οκτωβρίου 2023. Ανακτήθηκε στις 29 Οκτωβρίου 2023. 
  72. «Detecting AI fingerprints: A guide to watermarking and beyond». Brookings Institution (στα Αγγλικά). 4 Ιανουαρίου 2024. Αρχειοθετήθηκε από το πρωτότυπο στις 3 Σεπτεμβρίου 2024. Ανακτήθηκε στις 5 Σεπτεμβρίου 2024. 
  73. Fowler, Geoffrey (3 Απριλίου 2023). «We tested a new ChatGPT-detector for teachers. It flagged an innocent student». washingtonpost.com. Αρχειοθετήθηκε από το πρωτότυπο στις 28 Μαρτίου 2024. Ανακτήθηκε στις 6 Φεβρουαρίου 2024. 
  74. Fowler, Geoffrey (2 Ιουνίου 2023). «Detecting AI may be impossible. That's a big problem for teachers». washingtonpost.com. Αρχειοθετήθηκε από το πρωτότυπο στις 3 Ιουνίου 2023. Ανακτήθηκε στις 6 Φεβρουαρίου 2024. 
  75. Ye, Josh (13 Ιουλίου 2023). «China says generative AI rules to apply only to products for the public». Reuters. Αρχειοθετήθηκε από το πρωτότυπο στις 27 Ιουλίου 2023. Ανακτήθηκε στις 13 Ιουλίου 2023. 
  76. «生成式人工智能服务管理暂行办法». 13 Ιουλίου 2023. Αρχειοθετήθηκε από το πρωτότυπο στις 27 Ιουλίου 2023. Ανακτήθηκε στις 27 Ιουλίου 2023. 
  77. Bartz, Diane; Hu, Krystal (July 21, 2023). «OpenAI, Google, others pledge to watermark AI content for safety, White House says». Reuters. Αρχειοθετήθηκε από το πρωτότυπο στις July 27, 2023. https://web.archive.org/web/20230727074519/https://www.reuters.com/technology/openai-google-others-pledge-watermark-ai-content-safety-white-house-2023-07-21/. 
  78. «FACT SHEET: President Biden Issues Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence». The White House. 30 Οκτωβρίου 2023. Αρχειοθετήθηκε από το πρωτότυπο στις 30 Ιανουαρίου 2024. Ανακτήθηκε στις 30 Ιανουαρίου 2024. 
  79. Burt, Andrew (2023-10-31). «3 Obstacles to Regulating Generative AI». Harvard Business Review. ISSN 0017-8012. Αρχειοθετήθηκε από το πρωτότυπο στις February 17, 2024. https://web.archive.org/web/20240217052101/https://hbr.org/2023/10/3-obstacles-to-regulating-generative-ai. Ανακτήθηκε στις 2024-02-17. 
  80. «EU AI Act: first regulation on artificial intelligence». European Parliament (στα Αγγλικά). 6 Αυγούστου 2023. Ανακτήθηκε στις 13 Σεπτεμβρίου 2024. 
  81. Chee, Foo Yun; Mukherjee, Supantha (June 14, 2023). «EU lawmakers vote for tougher AI rules as draft moves to final stage» (στα αγγλικά). Reuters. Αρχειοθετήθηκε από το πρωτότυπο στις July 27, 2023. https://web.archive.org/web/20230727074515/https://www.reuters.com/technology/eu-lawmakers-agree-changes-draft-artificial-intelligence-rules-2023-06-14/. Ανακτήθηκε στις July 26, 2023. 
  82. «Generative Artificial Intelligence and Copyright Law». Congressional Research Service. LSB10922. 29 Σεπτεμβρίου 2023. Αρχειοθετήθηκε από το πρωτότυπο στις 22 Μαρτίου 2024. Ανακτήθηκε στις 30 Ιανουαρίου 2024. 
  83. «Generative Artificial Intelligence and Copyright Law». Congressional Research Service. LSB10922. 29 Σεπτεμβρίου 2023. Αρχειοθετήθηκε από το πρωτότυπο στις 22 Μαρτίου 2024. Ανακτήθηκε στις 30 Ιανουαρίου 2024. 
  84. Thompson, Stuart (25 Ιανουαρίου 2024). «We Asked A.I. to Create the Joker. It Generated a Copyrighted Image.». The New York Times. Αρχειοθετήθηκε από το πρωτότυπο στις 25 Ιανουαρίου 2024. Ανακτήθηκε στις 26 Ιανουαρίου 2024. 
  85. Hadero, Haleluya; Bauder, David (December 27, 2023). «The New York Times sues OpenAI and Microsoft for using its stories to train chatbots». Associated Press News (AP News). Αρχειοθετήθηκε από το πρωτότυπο στις December 27, 2023. https://web.archive.org/web/20231227150436/https://apnews.com/article/nyt-new-york-times-openai-microsoft-6ea53a8ad3efa06ee4643b697df0ba57. Ανακτήθηκε στις April 13, 2023. 
  86. O’Brien, Matt (25 Σεπτεμβρίου 2023). «Photo giant Getty took a leading AI image-maker to court. Now it's also embracing the technology». AP NEWS. Associated Press. Αρχειοθετήθηκε από το πρωτότυπο στις 30 Ιανουαρίου 2024. Ανακτήθηκε στις 30 Ιανουαρίου 2024. 
  87. «The Generative AI Copyright Fight Is Just Getting Started | WIRED». web.archive.org. 19 Ιανουαρίου 2024. Αρχειοθετήθηκε από το πρωτότυπο στις 19 Ιανουαρίου 2024. Ανακτήθηκε στις 1 Οκτωβρίου 2024. 
  88. Bruell, Alexandra (27 Δεκεμβρίου 2023). «New York Times Sues Microsoft and OpenAI, Alleging Copyright Infringement». Wall Street Journal. Αρχειοθετήθηκε από το πρωτότυπο στις 18 Ιανουαρίου 2024. Ανακτήθηκε στις 19 Ιανουαρίου 2024. 
  89. «Secretary-General's remarks to the Security Council on Artificial Intelligence». un.org. 18 Ιουλίου 2023. Αρχειοθετήθηκε από το πρωτότυπο στις 28 Ιουλίου 2023. Ανακτήθηκε στις 27 Ιουλίου 2023. 
  90. Tarnoff, Ben (4 August 2023). «Lessons from Eliza». The Guardian Weekly: σελ. 34–39. 
  91. Zhou, Viola (11 Απριλίου 2023). «AI is already taking video game illustrators' jobs in China». Rest of World (στα Αγγλικά). Αρχειοθετήθηκε από το πρωτότυπο στις 13 Αυγούστου 2023. Ανακτήθηκε στις 17 Αυγούστου 2023. 
  92. Carter, Justin (11 Απριλίου 2023). «China's game art industry reportedly decimated by growing AI use». Game Developer (στα Αγγλικά). Αρχειοθετήθηκε από το πρωτότυπο στις 17 Αυγούστου 2023. Ανακτήθηκε στις 17 Αυγούστου 2023. 
  93. Collier, Kevin (14 Ιουλίου 2023). «Actors vs. AI: Strike brings focus to emerging use of advanced tech». NBC News. Αρχειοθετήθηκε από το πρωτότυπο στις 20 Ιουλίου 2023. Ανακτήθηκε στις 21 Ιουλίου 2023. SAG-AFTRA has joined the Writer's [sic] Guild of America in demanding a contract that explicitly demands AI regulations to protect writers and the works they create. ... The future of generative artificial intelligence in Hollywood—and how it can be used to replace labor—has become a crucial sticking point for actors going on strike. In a news conference Thursday, Fran Drescher, president of the Screen Actors Guild-American Federation of Television and Radio Artists (more commonly known as SAG-AFTRA), declared that 'artificial intelligence poses an existential threat to creative professions, and all actors and performers deserve contract language that protects them from having their identity and talent exploited without consent and pay.' 
  94. Wiggers, Kyle (22 Αυγούστου 2023). «ElevenLabs' voice-generating tools launch out of beta». TechCrunch (στα Αγγλικά). Αρχειοθετήθηκε από το πρωτότυπο στις 28 Νοεμβρίου 2023. Ανακτήθηκε στις 25 Σεπτεμβρίου 2023. 
  95. Shrivastava, Rashi. «'Keep Your Paws Off My Voice': Voice Actors Worry Generative AI Will Steal Their Livelihoods». Forbes (στα Αγγλικά). Αρχειοθετήθηκε από το πρωτότυπο στις 2 Δεκεμβρίου 2023. Ανακτήθηκε στις 28 Νοεμβρίου 2023. 
  96. Gupta, Shalene (31 Οκτωβρίου 2023). «Underrepresented groups in countries around the world are worried about AI being a threat to jobs». Fast Company. Αρχειοθετήθηκε από το πρωτότυπο στις 8 Δεκεμβρίου 2023. Ανακτήθηκε στις 8 Δεκεμβρίου 2023. 
  97. Brandon, John (2018-02-16). «Terrifying high-tech porn: Creepy 'deepfake' videos are on the rise» (στα αγγλικά). Fox News. Αρχειοθετήθηκε από το πρωτότυπο στις 2018-06-15. https://web.archive.org/web/20180615160819/http://www.foxnews.com/tech/2018/02/16/terrifying-high-tech-porn-creepy-deepfake-videos-are-on-rise.html. Ανακτήθηκε στις 2018-02-20. 
  98. Cole, Samantha (24 Ιανουαρίου 2018). «We Are Truly Fucked: Everyone Is Making AI-Generated Fake Porn Now». Vice. Αρχειοθετήθηκε από το πρωτότυπο στις 7 Σεπτεμβρίου 2019. Ανακτήθηκε στις 4 Μαΐου 2019. 
  99. «Join the Deepfake Detection Challenge (DFDC)». deepfakedetectionchallenge.ai. Αρχειοθετήθηκε από το πρωτότυπο στις 12 Ιανουαρίου 2020. Ανακτήθηκε στις 8 Νοεμβρίου 2019. 
  100. Clarke, Yvette D. (28 Ιουνίου 2019). «H.R.3230 – 116th Congress (2019-2020): Defending Each and Every Person from False Appearances by Keeping Exploitation Subject to Accountability Act of 2019». www.congress.gov. Αρχειοθετήθηκε από το πρωτότυπο στις 17 Δεκεμβρίου 2019. Ανακτήθηκε στις 16 Οκτωβρίου 2019. 
  101. «New Research Reveals Scale of Threat Posed by AI-generated Images on 2024 Elections». Logically. 27 Ιουλίου 2023. Αρχειοθετήθηκε από το πρωτότυπο στις 3 Οκτωβρίου 2023. Ανακτήθηκε στις 6 Ιουλίου 2024. 
  102. Lawton, Graham (12 Σεπτεμβρίου 2023). «Disinformation wars: The fight against fake news in the age of AI». New Scientist (στα Αγγλικά). Ανακτήθηκε στις 5 Ιουλίου 2024. 
  103. Brewer, Jordan; Patel, Dhru; Kim, Dennie; Murray, Alex (2024-04-12). «Navigating the challenges of generative technologies: Proposing the integration of artificial intelligence and blockchain». Business Horizons 67 (5): 525–535. doi:10.1016/j.bushor.2024.04.011. ISSN 0007-6813. https://www.sciencedirect.com/science/article/pii/S0007681324000569. 
  104. «People Are Still Terrible: AI Voice-Cloning Tool Misused for Deepfake Celeb Clips». PCMag Middle East (στα Αγγλικά). 31 Ιανουαρίου 2023. Αρχειοθετήθηκε από το πρωτότυπο στις 25 Δεκεμβρίου 2023. Ανακτήθηκε στις 25 Ιουλίου 2023. 
  105. «A new AI voice tool is already being abused to make deepfake celebrity audio clips». Engadget (στα Αγγλικά). 31 Ιανουαρίου 2023. Αρχειοθετήθηκε από το πρωτότυπο στις 10 Οκτωβρίου 2023. Ανακτήθηκε στις 3 Φεβρουαρίου 2023. 
  106. Skelton, Eric. «Fans Are Using Artificial Intelligence to Turn Rap Snippets Into Full Songs». Complex (στα Αγγλικά). Αρχειοθετήθηκε από το πρωτότυπο στις 2 Ιανουαρίου 2024. Ανακτήθηκε στις 6 Δεκεμβρίου 2023. 
  107. Marr, Bernard. «Virtual Influencer Noonoouri Lands Record Deal: Is She The Future Of Music?». Forbes (στα Αγγλικά). Αρχειοθετήθηκε από το πρωτότυπο στις 4 Δεκεμβρίου 2023. Ανακτήθηκε στις 6 Δεκεμβρίου 2023. 
  108. Thaler, Shannon (8 Σεπτεμβρίου 2023). «Warner Music signs first-ever record deal with AI pop star». New York Post (στα Αγγλικά). Αρχειοθετήθηκε από το πρωτότυπο στις 15 Δεκεμβρίου 2023. Ανακτήθηκε στις 6 Δεκεμβρίου 2023. 
  109. Sjouwerman, Stu (2022-12-26). «Deepfakes: Get ready for phishing 2.0». Fast Company. Αρχειοθετήθηκε από το πρωτότυπο στις July 31, 2023. https://web.archive.org/web/20230731210940/https://www.fastcompany.com/90829233/deepfakes-get-ready-for-phishing-2-0. Ανακτήθηκε στις 2023-07-31. 
  110. Sonnemaker, Tyler. «As social media platforms brace for the incoming wave of deepfakes, Google's former 'fraud czar' predicts the biggest danger is that deepfakes will eventually become boring». Business Insider (στα Αγγλικά). Αρχειοθετήθηκε από το πρωτότυπο στις 14 Απριλίου 2021. Ανακτήθηκε στις 31 Ιουλίου 2023. 
  111. Collinson, Patrick (2023-07-15). «Fake reviews: can we trust what we read online as use of AI explodes?» (στα αγγλικά). The Guardian. ISSN 0261-3077. Αρχειοθετήθηκε από το πρωτότυπο στις November 22, 2023. https://web.archive.org/web/20231122152136/https://www.theguardian.com/money/2023/jul/15/fake-reviews-ai-artificial-intelligence-hotels-restaurants-products. Ανακτήθηκε στις 2023-12-06. 
  112. «After WormGPT, FraudGPT Emerges to Help Scammers Steal Your Data». PCMAG (στα Αγγλικά). Αρχειοθετήθηκε από το πρωτότυπο στις 31 Ιουλίου 2023. Ανακτήθηκε στις 31 Ιουλίου 2023. 
  113. Gupta, Maanak; Akiri, Charankumar; Aryal, Kshitiz; Parker, Eli; Praharaj, Lopamudra (2023). «From ChatGPT to ThreatGPT: Impact of Generative AI in Cybersecurity and Privacy». IEEE Access 11: 80218–80245. doi:10.1109/ACCESS.2023.3300381. Bibcode2023IEEEA..1180218G. 
  114. Metz, Cade (July 10, 2023). «In the Age of A.I., Tech's Little Guys Need Big Friends». New York Times. https://www.nytimes.com/2023/07/05/business/artificial-intelligence-power-data-centers.html. 
  115. Hoffman, Benjamin (2024-06-11). «First Came 'Spam.' Now, With A.I., We've Got 'Slop'» (στα αγγλικά). The New York Times. ISSN 0362-4331. Αρχειοθετήθηκε από το πρωτότυπο στις 2024-08-26. https://web.archive.org/web/20240826111040/https://www.nytimes.com/2024/06/11/style/ai-search-slop.html. Ανακτήθηκε στις 2024-08-27. 
  116. 119,0 119,1 «Investigation Finds Actual Source of All That AI Slop on Facebook». Futurism. 10 Αυγούστου 2024. Αρχειοθετήθηκε από το πρωτότυπο στις 15 Αυγούστου 2024. Ανακτήθηκε στις 27 Αυγούστου 2024. 
  117. 120,0 120,1 Warzel, Charlie (21 Αυγούστου 2024). «The MAGA Aesthetic Is AI Slop». The Atlantic (στα Αγγλικά). Αρχειοθετήθηκε από το πρωτότυπο στις 25 Αυγούστου 2024. Ανακτήθηκε στις 27 Αυγούστου 2024. 
  118. Edwards, Benj (14 Αυγούστου 2024). «Research AI model unexpectedly attempts to modify its own code to extend runtime». Ars Technica (στα Αγγλικά). Αρχειοθετήθηκε από το πρωτότυπο στις 24 Αυγούστου 2024. Ανακτήθηκε στις 27 Αυγούστου 2024. 
  119. Hern, Alex; Milmo, Dan (2024-05-19). «Spam, junk … slop? The latest wave of AI behind the 'zombie internet'» (στα αγγλικά). The Guardian. ISSN 0261-3077. Αρχειοθετήθηκε από το πρωτότυπο στις 2024-08-26. https://web.archive.org/web/20240826142358/https://www.theguardian.com/technology/article/2024/may/19/spam-junk-slop-the-latest-wave-of-ai-behind-the-zombie-internet. Ανακτήθηκε στις 2024-08-27. 
  120. Cox, Joseph (18 Ιανουαρίου 2024). «Google News Is Boosting Garbage AI-Generated Articles». 404 Media (στα Αγγλικά). Αρχειοθετήθηκε από το πρωτότυπο στις 13 Ιουνίου 2024. Ανακτήθηκε στις 27 Αυγούστου 2024. 
  121. «Beloved Local Newspapers Fired Staffers, Then Started Running AI Slop». Futurism. 31 Ιουλίου 2024. Αρχειοθετήθηκε από το πρωτότυπο στις 12 Αυγούστου 2024. Ανακτήθηκε στις 27 Αυγούστου 2024. 
  122. Thompson, Brian; Dhaliwal, Mehak; Frisch, Peter; Domhan, Tobias; Federico, Marcello (August 2024). Ku, Lun-Wei, επιμ. «A Shocking Amount of the Web is Machine Translated: Insights from Multi-Way Parallelism». Findings of the Association for Computational Linguistics ACL 2024 (Bangkok, Thailand and virtual meeting: Association for Computational Linguistics): 1763–1775. https://aclanthology.org/2024.findings-acl.103/. 
  123. Roscoe, Jules (17 Ιανουαρίου 2024). «A 'Shocking' Amount of the Web Is Already AI-Translated Trash, Scientists Determine». VICE (στα Αγγλικά). Αρχειοθετήθηκε από το πρωτότυπο στις 1 Ιουλίου 2024. Ανακτήθηκε στις 27 Αυγούστου 2024. 
  124. Koebler, Jason (19 Σεπτεμβρίου 2024). «Project Analyzing Human Language Usage Shuts Down Because 'Generative AI Has Polluted the Data'». 404 Media (στα Αγγλικά). Αρχειοθετήθηκε από το πρωτότυπο στις 19 Σεπτεμβρίου 2024. Ανακτήθηκε στις 20 Σεπτεμβρίου 2024. While there has always been spam on the internet and in the datasets that Wordfreq used, "it was manageable and often identifiable. Large language models generate text that masquerades as real language with intention behind it, even though there is none, and their output crops up everywhere," she wrote. She gives the example that ChatGPT overuses the word "delve," in a way that people do not, which has thrown off the frequency of this specific word. 
  125. Gray, Andrew (2024-03-24). «ChatGPT "contamination": estimating the prevalence of LLMs in the scholarly literature». MISSING LINK. . 
  126. Kannan, Prabha (13 Μαΐου 2024). «How Much Research Is Being Written by Large Language Models?». Human-Centered Artificial Intelligence (στα Αγγλικά). Stanford University. Ανακτήθηκε στις 16 Αυγούστου 2024. 
  127. Valyaeva, Alina (15 Αυγούστου 2023). «AI Image Statistics for 2024: How Much Content Was Created by AI». Everypixel Journal. Ανακτήθηκε στις 16 Αυγούστου 2024. 
  128. Shumailov, Ilia; Shumaylov, Zakhar; Zhao, Yiren; Papernot, Nicolas; Anderson, Ross; Gal, Yarin (July 2024). «AI models collapse when trained on recursively generated data» (στα αγγλικά). Nature 631 (8022): 755–759. doi:10.1038/s41586-024-07566-y. PMID 39048682. 
  129. Bhatia, Aatish (2024-08-26). «When A.I.'s Output Is a Threat to A.I. Itself» (στα αγγλικά). The New York Times. ISSN 0362-4331. https://www.nytimes.com/interactive/2024/08/26/upshot/ai-synthetic-data.html?te=1&nl=the-morning&emc=edit_nn_20240826. Ανακτήθηκε στις 2024-08-27. 
  130. «Self-Consuming Generative Models Go Mad». ICLR. 2024. https://openreview.net/pdf?id=ShjMHfmPs0. 
  131. Owen, Sean (12 Απριλίου 2023). «Synthetic Data for Better Machine Learning». databricks.com. Αρχειοθετήθηκε από το πρωτότυπο στις 3 Ιανουαρίου 2024. Ανακτήθηκε στις 4 Ιανουαρίου 2024. 
  132. Sharma, Himanshu (11 Ιουλίου 2023). «Synthetic Data Platforms: Unlocking the Power of Generative AI for Structured Data». kdnuggets.com. Αρχειοθετήθηκε από το πρωτότυπο στις 3 Ιανουαρίου 2024. Ανακτήθηκε στις 4 Ιανουαρίου 2024. 
  133. Stöckl, Andreas (2022-11-02). «Evaluating a Synthetic Image Dataset Generated with Stable Diffusion». MISSING LINK. . 
  134. Roth, Emma (25 January 2023). «CNET found errors in more than half of its AI-written stories». The Verge. Αρχειοθετήθηκε από το πρωτότυπο στις November 6, 2023. https://web.archive.org/web/20231106142152/https://www.theverge.com/2023/1/25/23571082/cnet-ai-written-stories-errors-corrections-red-ventures. Ανακτήθηκε στις 17 June 2023. 
  135. «A magazine touted Michael Schumacher's first interview in years. It was actually AI». NPR. 28 April 2023. Αρχειοθετήθηκε από το πρωτότυπο στις June 17, 2023. https://web.archive.org/web/20230617222319/https://www.npr.org/2023/04/28/1172473999/michael-schumacher-ai-interview-german-magazine. Ανακτήθηκε στις 17 June 2023. 
  1. εν συντομία παραγωγική ΤΝ ή γενετική ΤΝ, συναντάται και ως δημιουργική τεχνητή νοημοσύνη (δημιουργική ΤΝ)
  2. Προφέρεται "τσάτμποτ", και πρόκειται για εφαρμογές συνομιλιών με LLMs που μιμούνται ανθρώπινη συμπεριφροά
  3. ελληνικά: μία φωτογραφία ενός αστροναύτη που ιππεύει άλογο
  4. πορνογραφικά βίντεο με σκοπό την διασπορά τους ως μέσο εκδίκησης