Μετάβαση στο κύριο περιεχόμενο
Φόρουμ της Ευρωπαϊκής Πρωτοβουλίας Πολιτών

Οι Ευρωπαίοι για ασφαλείς συνδέσεις ζητούν ισχυρότερη ρύθμιση της τεχνητής νοημοσύνης κατά τη λήψη αποφάσεων

Επικαιροποιήθηκε στις: 24/01/2023

Οι Ευρωπαίοι για ασφαλείς συνδέσεις είναι ένας συνασπισμός εθνικών και διεθνών οργανισμών που γνωρίζουν τις αρνητικές συνέπειες των σύγχρονων τεχνολογιών επικοινωνίας. Τονίζουμε ότι δεν είμαστε κατά της τεχνολογίας, αλλά υπέρ της ασφαλούς τεχνολογίας και των ασφαλών συνδέσεων.

Κατά τη διάρκεια ενός έτους της εκστρατείας μας αντλήσαμε διδάγματα που μπορούν να είναι χρήσιμα για τους μελλοντικούς διοργανωτές. Πρώτον, αν ακούσετε αυτή την πραγματική φωνή στην καρδιά σας που σας λέει να αλλάξετε τον κόσμο για τα καλύτερα για όλα και για όλους: ακολουθήστε αυτή τη φωνή, αγωνίζεστε και δεν εγκαταλείψετε ποτέ την ελπίδα!

αν ακολουθήσετε τη ροή, οι άνθρωποι θα έρθουν εύκολα μαζί σας και δεν θα αντιμετωπίσετε αντίσταση. Αν όμως πρέπει να το αντιμετωπίσετε, το μήνυμά σας μπορεί να χρειαστεί, όπως το τριπλό νερό που αποκαθιστά το έδαφος, χρειάζεται μαλακή επίμονη βροχή. Παρόλο που η ΕΕ χρειάζεται ένα εκατομμύριο υπογραφές, αυτό που μετράει είναι η ποιότητα των ιδεών σας.

Στην Ευρωπαϊκή Πρωτοβουλία Πολιτών (ΕΠΠ) «Σταματήστε (((5G)) Ας μείνουμε συνδεδεμένοι αλλά προστατευμένοι»έχουμε 23 προτάσεις. Μεταξύ αυτών ζητούμε τη βελτίωση της νομοθεσίας για την ιδιωτικότητα των δεδομένων και την αυτόματη λήψη αποφάσεων από την τεχνητή νοημοσύνη. Προτείνουμε να δρομολογηθεί εκτίμηση επιπτώσεων των επιπτώσεων του 5G στην προστασία των δεδομένων προσωπικού χαρακτήρα (πρόταση 19), επιθυμούμε την ενεργό καταπολέμηση των διακρίσεων και των παραβιάσεων των ψηφιακών δικαιωμάτων (πρόταση 21) και θεωρούμε ότι οι πολίτες θα πρέπει να ενημερώνονται σχετικά με το αν τα δεδομένα τους υποβάλλονται σε επεξεργασία με αυτοματοποιημένη διαδικασία (πρόταση 22).

Stop 5G - Logo

Πώς ξεκίνησε το εγχείρημα

Η τεχνητή νοημοσύνη (ΤΝ) βρίσκεται εδώ και αρκετό καιρό. Ήδη στις αρχές του 50, οι προσδοκίες ήταν υψηλές όσον αφορά τις ατέρμονες δυνατότητες που θα μπορούσε να προσφέρει η ευφυής τεχνολογία στην κοινωνία μας. Σήμερα, πάνω από μισό αιώνα αργότερα, η τεχνολογία τεχνητής νοημοσύνης κατάφερε να υποχωρήσει αργά στην καθημερινή μας ζωή. Παρόλο που τα ανθρωποειδή ρομπότ δεν περπατούν ακόμη στον πλανήτη μας, βασιζόμαστε σε πολλαπλές σύνθετες τεχνολογίες στη διαχείριση των υποδομών μας, στις εργασιακές διαδικασίες και στον ελεύθερο χρόνο.

Οι σημερινές «έξυπνες» τεχνολογίες ενδέχεται να διαφέρουν από αυτές που παλαιότερα οι επιστήμονες θα χαρακτήριζαν έξυπνες μηχανές σαν τον άνθρωπο. Ενώ ο Alan Turing όρισε την ευφυΐα ως σκέψη και συμπεριφορά όπως ο άνθρωπος, σήμερα τα έξυπνα συστήματα κλονίζουν το σπίτι μας με περιορισμένη σκέψη. Είναι δύσκολο να καθοριστεί τι ακριβώς είναι η ΤΝ και τι συνεπάγεται. Ωστόσο, μας έδωσε τη δυνατότητα να ζούμε πιο αποτελεσματικά, ομαλότερα και, ίσως, ακόμη πιο ευχάριστα.

Ωστόσο, τα μειονεκτήματα της ατέρμονης αυτοματοποίησης και της ρομποτοποίησης καθίστανται επίσης όλο και πιο εμφανή. Βλ., για παράδειγμα, τις προσφεύγουσες της Amazon: απορρίφθηκε διότι ο αλγόριθμος έμαθε να ευνοεί τους άνδρες στις γυναίκες. Ή το chatbot Tay της Microsoft στο Twitter που έπρεπε να αποσυρθεί από το διαδίκτυο, διότι είχε συναγάγει ορισμένες εξαιρετικά ρατσιστικές «αλήθειες» από τους άλλους tweeter. Ή το γεγονός ότι κυρίως εικόνες αρσενικών εμφανίζονται στον όρο αναζήτησης «διευθύνων σύμβουλος» στο Google.

Μπορούμε να πιστεύουμε ότι η ΤΝ φαίνεται να εγκαταλείπει τη χειρότερη θέση των ανδρών και να εμβαθύνει τις υφιστάμενες ανισότητες. Ωστόσο, το συμπέρασμα αυτό μπορεί να είναι κάπως απλουστευτικό. Τα συστήματα ΤΝ και οι υποκείμενοι αλγόριθμοι συχνά βασίζονται σε δεδομένα, πολλά δεδομένα, για να μάθουν για τον κόσμο μας. Οι τεχνικές μηχανικής μάθησης, όπως τα νευρωνικά δίκτυα και τα δέντρα λήψης αποφάσεων, προσπαθούν να συναγάγουν τάσεις, συνδέσεις μεταξύ εννοιών και σημαντικές παραμέτρους που θα τους βοηθήσουν να επιλέξουν τις σωστές επιλογές σε μελλοντικά αιτήματα. Τα δεδομένα αυτά δεν είναι κάτι που δημιουργήθηκε για λόγους μηχανικής μάθησης. Όχι, τα περισσότερα δεδομένα δημιουργήθηκαν από εμάς, ανθρώπους, κάνοντας κλικ στο διαδίκτυο και ανταλλάσσοντας τις προτιμήσεις μας. Με τη χρήση των δεδομένων μας για τη μάθηση, τα συστήματα ΤΝ εξαλείφουν τις συστηματικές προκαταλήψεις που υπήρχαν ήδη, σε κάποιο βαθμό, στην κοινωνία μας. Αυτό καθιστά την εφαρμογή έξυπνων τεχνολογιών όχι μόνο τεχνολογικό, αλλά και κοινωνικό και ηθικό ζήτημα. Για τους λόγους αυτούς, ορισμένοι ερευνητές υποστηρίζουν ότι οι μηχανικοί κρύβονται εδώ και καιρό πίσω από τις τεχνολογικές πτυχές της ΤΝ, εστιάζοντας στη βελτίωση των υπολογισμών, αγνοώντας παράλληλα τις επιπτώσεις που ενδέχεται να έχουν οι καινοτομίες τους στους τελικούς χρήστες. Η τεχνολογία τοποθετείται μεταξύ ενός προγραμματιστή και του εξωτερικού κόσμου. Το άρθρο αυτό περιγράφει τρία ζητήματα: διακρίσεις, λογοδοσία και λογική μαύρου κουτιού.

Winter country with 20 telecommunication masts among firs and spruces

Χειμερινή χώρα με 20 τηλεπικοινωνιακούς ιστούς μεταξύ της ελάτης και της ερυθρελάτης
Πίστωση: Πηγή δημόσιου
τομέα:
https://labs.openai.com/

Διακρίσεις και προκατάληψη 

Όπως και οι γυναίκες προσφεύγουσες της Amazon, τα άτομα που ανήκουν σε μειονοτικές ομάδες δεν εμπίπτουν στο πραγματικό πεδίο εφαρμογής των συστημάτων ΤΝ. Ο λόγος είναι προφανής από την ονομασία: αυτοί είναι οι άνθρωποι που αποτελούν μειονότητα. Η αναπαράστασή τους στα δεδομένα θα είναι περιορισμένη και ο αλγόριθμος δεν θα μάθει τα ειδικά χαρακτηριστικά που αντιπροσωπεύουν τα εν λόγω άτομα. Όπως και ο άνθρωπος, τα συστήματα έχουν χειρότερες επιδόσεις με περιορισμένες γνώσεις. Αποτέλεσμα: τα μαύρα άτομα επισημαίνονται ως πιάτα από το έξυπνο λογισμικό ανάγνωσης εικόνων της Google ή ως πιο επικίνδυνα σε ένα αυτόματο σύστημα εκτίμησης κινδύνου για υποτροπή. Απλώς και μόνο επειδή το λογισμικό εκπαιδεύτηκε σε εικόνες που περιείχαν λευκά άτομα (και ίσως gorillas).

Οι επιστήμονες δεδομένων γνωρίζουν το πρόβλημα αυτό και υπάρχουν ήδη τεχνικές για τη βελτίωση των επιδόσεων. Για παράδειγμα, προσαρμόζοντας το σύνολο δεδομένων έτσι ώστε να εκπροσωπούνται καλύτερα οι μειονοτικές ομάδες. Ή προσθέτοντας ένα επιπλέον βήμα στη διαδικασία μηχανικής μάθησης για τη βελτίωση του μοντέλου.

Και για να καταστεί η συζήτηση ακόμη πιο περίπλοκη: τι συμβαίνει αν το σύστημά μας προβλέπει πολύ καλά αποτελέσματα. Ας υποθέσουμε ότι αναπτύσσουμε δύο αλγόριθμους. Μία που ανιχνεύει σωστά μια νόσο κατά το 80 % του χρόνου στα λευκά άτομα, αλλά μόνο το 60 % του χρόνου σε έγχρωμα άτομα. Και μια δεύτερη που ανιχνεύει ορθά μια νόσο μόνο στο 60 % του χρόνου ανεξάρτητα από το υπόβαθρο. Θα πρέπει στη συνέχεια να αγωνιστούμε για την ισότητα και να λάβουμε τον χειρότερο αλγόριθμο; Ακόμη και αν η δυσμενής διάκριση θα μπορούσε δυνητικά να σώσει περισσότερα λευκά άτομα; Σε αυτό ακριβώς το πλαίσιο λαμβάνονται υπόψη οι δεοντολογικές πτυχές.

Ο επιστήμονας των δεδομένων μας μόλις μετατράπηκε σε άτομο που διαμόρφωσε την πίστη ενός εκατομμυρίου άλλων και πρέπει ξαφνικά να καταστήσει δύσκολα δεοντολογικά ζητήματα. Δεοντολογικά διλήμματα που δεν έχουν ακόμη απαντηθεί στη δημόσια συζήτηση. Δεν μπορούμε να αναμένουμε από τους μηχανικούς να λαμβάνουν αυτές τις αποφάσεις, ούτε θα πρέπει να τους θέλουμε. Απαιτούνται κανονισμοί για την καθοδήγηση του σχεδιασμού του λογισμικού.

Artificial Intelligence is a good servant but a bad master

Ητεχνητή νοημοσύνη είναι ένας καλός υπάλληλος, αλλά κακός.
Πίστωση: Διακοπή της ομάδας 5G

Λογοδοσία και ευθύνη

Στην κοινωνία μας, τα άτομα θεωρούνται υπεύθυνα για τις πράξεις τους. Με τα ευφυή συστήματα, είναι δύσκολο να εντοπιστεί ο δράστης. Ιδίως εάν τα συστήματα είναι σύνθετα και αυτομαθησιακά. Οι μηχανικοί δεν μπορούν πάντα να προβλέψουν τι θα μάθει το σύστημα ή πώς θα συμπεριφέρεται. Η Amazon πιθανότατα δεν σκόπευε να θέσει σε κίνδυνο τις αιτούσες γυναίκες, ούτε έθεσε συνειδητά τους άνδρες στην κορυφή των αποτελεσμάτων αναζήτησης. Οι συνέπειες αυτές εμφανίστηκαν μόνο μετά την είσοδο του συστήματος στον κόσμο. Ποιος όμως πρέπει να κατηγορηθεί; Η εταιρεία για τη χρήση των συστημάτων αυτών, παρόλο που δεν είχε βάσιμους λόγους να αμφιβάλλει εκ των προτέρων για την ποιότητα του συστήματος. Ή η εταιρεία που δημιούργησε το σύστημα πώλησης ενός προϊόντος που αποδείχθηκε ότι εισάγει διακρίσεις.

Οι καινοτομίες ανέκαθεν διαταράσσουν και όχι χωρίς κίνδυνο. Ζητούν προσαρμογές στην κοινωνία και το δικαστικό μας σύστημα. Πάρτε το αυτοκίνητο. Κατά τις πρώτες ημέρες της, επιτράπηκε σε αυτοκίνητο να ταξιδεύει ελεύθερα στις πόλεις χωρίς ζώνες ασφαλείας, αερόσακους και οδική σήμανση. Έως ότου ο αριθμός των θυμάτων αυξανόταν ραγδαία και οι δρόμοι κατέστησαν αδιανόητοι. Απαιτούνται νέες κατευθυντήριες γραμμές και κανονισμοί για τον εξορθολογισμό της νέας τεχνολογίας στις υφιστάμενες υποδομές. Λίγοι πρόβλεψαν ότι το αυτοκίνητο θα καθίστατο τόσο επικίνδυνο για το περπάτημα. Ρυθμίζοντας τη χρήση, μπορέσαμε να αυξήσουμε την ασφάλεια και παράλληλα να αξιοποιήσουμε τα οφέλη αυτού του νέου τύπου μεταφορών. Σήμερα, δύσκολα μπορούμε να φανταστούμε έναν κόσμο χωρίς μηχανοκίνητες μεταφορές.

Όπως και με τα αυτοκίνητα, η απαγόρευση των συστημάτων ΤΝ για τις αρχικές επικίνδυνες επιπτώσεις τους θα ήταν πολύ κοντόφθαλμη. Τα συστήματα ΤΝ μπορούν να έχουν θετικό αντίκτυπο στην κοινωνία μας, και ήδη έχουν ακόμη και θετικό αντίκτυπο. Ωστόσο, στο σημείο αυτό, τα συστήματα ΤΝ αναπτύσσονται και απορρίπτονται στην καθημερινή μας ζωή χωρίς «ζώνες ασφαλείας» ή άλλες διασφαλίσεις. Είναι σημαντικό να σκεφτούμε με κριτικό πνεύμα πώς θέλουμε η ΤΝ να υπάρχει στην κοινωνία μας. Έναρξη της συζήτησης σχετικά με τον τρόπο με τον οποίο μπορούμε να αυξήσουμε την ασφάλεια των εν λόγω συστημάτων ή να μειώσουμε τη ζημία σε περίπτωση απρόβλεπτων αποτελεσμάτων.

Image showing a man waving a red flag for pedestrians to warn them of cars and a robot holding a red flag to warn about Artificial Intelligence

Η κόκκινη σημαία
Credit: Διακοπή της ομάδας 5G

Μαύρο κουτί

Η αιτιολόγηση του ΓΚΠΔ αναφέρει ότι οι πολίτες έχουν το δικαίωμα να βλέπουν τους λόγους για τους οποίους ελήφθησαν οι αποφάσεις, τα δεδομένα που συλλέγονται και τον τρόπο με τον οποίο θα χρησιμοποιηθούν τα δεδομένα αυτά. Αυτός ο σχετικά καινοφανής νόμος αποτέλεσε ένα βήμα προς τη σωστή κατεύθυνση, αλλά απέχει πολύ από μια κατάλληλη λύση για την κατοχύρωση της ιδιωτικής ζωής ή την τήρηση των ατομικών δικαιωμάτων. Όταν επισκέπτονται έναν ιστότοπο στο διαδίκτυο, οι χρήστες συχνά έρχονται αντιμέτωποι με μεγάλο όγκο κειμένων που εξηγούν με ασαφή τρόπο ποια δεδομένα προσωπικού χαρακτήρα συλλέγονται. Και τις περισσότερες φορές, είναι δύσκολο να απορριφθούν τυχόν cookies ή πρέπει να κάνετε κλικ γύρω από διάφορα αναδυόμενα παράθυρα. Οι εταιρείες τηρούν τους αυστηρούς περιορισμούς του ΓΚΠΔ και δεν διευκολύνουν τα φυσικά πρόσωπα να επιβλέπουν τα δικά τους δεδομένα. Ως εκ τούτου, πιστεύουμε ότι ο ΓΚΠΔ είναι μια αφελής πρωτοβουλία που δείχνει την πείνα για τα δεδομένα των διαδικτυακών εταιρειών.

Ωστόσο, ακόμη και αν οι εταιρείες ήταν πιο πρόθυμες να μοιραστούν την πραγματική συλλογή και χρήση δεδομένων προσωπικού χαρακτήρα, δεν είναι πάντα πλήρως σε θέση. Πολλά ευφυή συστήματα λειτουργούν όπως μαύρα κουτιά: τοποθετήστε πολλά δεδομένα και το σύστημα θα δώσει ένα ορισμένο αποτέλεσμα ανάλογα με τα χαρακτηριστικά των δεδομένων. Τα τελευταία χρόνια, οι μηχανικοί τάχθηκαν υπέρ αυτών των συστημάτων μαύρου κουτιού. Τα συστήματα αυτά είχαν μεγάλες δυνατότητες εκμάθησης πιο σύνθετων εννοιών, όπως η γλώσσα ή οι εικόνες. Γνωστά παραδείγματα συστημάτων μαύρου κουτιού είναι τα νευρωνικά δίκτυα, το λογισμικό αναγνώρισης προσώπου ή το λογισμικό επεξεργασίας φυσικής γλώσσας (π.χ. Google Translate). Οι μηχανικοί έχουν τον έλεγχο ορισμένων παραμέτρων, αλλά δεν έχουν καμία εικόνα όσον αφορά το είδος των πληροφοριών που τα συστήματα αυτά μαθαίνουν ή συνάγουν από τα δεδομένα. Μόνο με τον έλεγχο των επιδόσεων σε νεωτεριστικά δεδομένα μπορεί ένας μηχανικός να εκτιμήσει εάν το σύστημα έχει μάθει τι υποτίθεται. Ένας μηχανικός θα μπορούσε, για παράδειγμα, να εισαγάγει μια σειρά νέων εικόνων για να διαπιστώσει αν το σύστημα είναι σε θέση να τις ερμηνεύσει. Ωστόσο, όπως είδαμε προηγουμένως, εάν ο μηχανικός δεν έχει δοκιμάσει επαρκώς το σύστημα, οι φωτογραφίες των έγχρωμων ανθρώπων θα μπορούσαν να ερμηνευθούν ως φωτογραφίες πιθήκων. Θα μπορούσαν οι μηχανικοί της Google να γνωρίζουν αυτό το σφάλμα; Αν είχαν δοκιμάσει το λογισμικό σε ένα σύνολο φωτογραφιών έγχρωμων ανθρώπων, θα μπορούσαν να έχουν. Ωστόσο, οι φωτογραφίες μπορούν να περιέχουν οτιδήποτε. Και θα ήταν πολύ δύσκολο να επαληθευτεί το σύστημα σε ό, τι αφορά τα πάντα.

Πιο αποτελεσματικό θα ήταν να εξακριβωθεί τι είδους πράγματα έχει μάθει το λογισμικό. Εάν ο αλγόριθμος Google μπορούσε να μας ενημερώσει για το είδος των μέτρων που λαμβάνει για να επιτύχει μια ερμηνεία, οι μηχανικοί θα μπορούσαν να επαληθεύσουν αυτό το σκεπτικό και να εκτιμήσουν πιθανές εξαιρέσεις ή περιπτώσεις σφάλματος. Αυτός είναι ο λόγος για τον οποίο τα μέλη της επιστημονικής κοινότητας ζητούν πιο κατανοητές προσεγγίσεις όσον αφορά τη μηχανική μάθηση. Οι αλγόριθμοι μαύρου κουτιού δεν έχουν ακόμη ανταποκριθεί στις δυνατότητές τους και δεν είναι κατ’ ανάγκη καλύτεροι από πιο κατανοητούς αλγόριθμους.

Το πλεονέκτημα ερμηνείας αυτών των κατανοητών αλγορίθμων είναι μεγαλύτερο από το αναμενόμενο πλεονέκτημα επιδόσεων των αλγορίθμων μαύρου κουτιού. Μόνο αν γνωρίζουμε τι συμβαίνει, μπορούμε να παρέμβουμε ή να προσαρμοστούμε αναλόγως.

Analytics Information by Reto Scheiwiller

Παρακολούθηση της πίστωσης μαύρου
κουτιού: Διακοπή της ομάδας 5G

Συμπέρασμα

Η τεχνητή νοημοσύνη και το έξυπνο λογισμικό είναι αρκετά πανταχού παρόντα στη σύγχρονη ζωή. Επηρεάζοντας τις διαδικασίες λήψης αποφάσεων στις εταιρείες και επιδεικνύοντας προκαταλήψεις έναντι μειονοτικών ομάδων. Ενώ δεν κατανοούμε πλήρως τον τρόπο λειτουργίας της τεχνητής νοημοσύνης, τον τρόπο με τον οποίο η τεχνητή νοημοσύνη μας επηρεάζει και ποιες θα είναι οι μακροπρόθεσμες επιπτώσεις.

Οι πολίτες της ΕΕ δεν ερωτήθηκαν αν αποδέχονται τις εκτεταμένες κοινωνικές συνέπειες από την τεχνητή νοημοσύνη που καθοδηγούν τα εργαλεία λήψης αποφάσεων στο όνομα της τεχνολογικής προόδου και της ψηφιοποίησης.

Ως εκ τούτου, στην ΕΠΠ «Σταματήστε (((5G)) — Ας μείνουμε συνδεδεμένοι αλλά προστατευμένοι» ζητούμε ισχυρότερη ρύθμιση για την προστασία των πολιτών από παραβιάσεις της ιδιωτικής ζωής και διακρίσεις ως αποτέλεσμα της ανεξέλεγκτης χρήσης του συστήματος ΤΝ στη λήψη αποφάσεων στην πρόταση 19, την πρόταση 21 και την πρόταση 22 της ΕΠΠ.

Και δεν είμαστε μόνοι μας:

  • Το Ευρωπαϊκό Συμβούλιο Προστασίας Δεδομένων δεν συμφωνεί με νέες νομοθετικές προτάσεις τηςΕυρωπαϊκής Επιτροπής που θα διευκολύνουν τη χρήση και την ανταλλαγή δεδομένων (προσωπικού χαρακτήρα) μεταξύ περισσότερων δημόσιων και ιδιωτικών φορέων. Σύμφωνα με το Ευρωπαϊκό Συμβούλιο Προστασίας Δεδομένων, αυτό «θαεπηρεάσει σημαντικά την προστασία των θεμελιωδών δικαιωμάτων στην ιδιωτική ζωή και την προστασία των δεδομένων προσωπικού χαρακτήρα».
  • Το Ευρωπαϊκό Συμβούλιο τονίζει τη σημασία μιας ανθρωποκεντρικής προσέγγισης της πολιτικής για την ΤΝ. Σκεφτείτε θέματα όπως η μεροληπτική και αδιαφανής λήψη αποφάσεων που επηρεάζουν τα θεμελιώδη ανθρώπινα δικαιώματα των πολιτών.
  • Η προκαταρκτική μελέτη της UNESCO σχετικά με τη δεοντολογία της τεχνητής νοημοσύνης στη σελίδα 10 αναφέρει ότι «Είναι πιο σημαντικό να εκπαιδευτούν μελλοντικοί μηχανικοί και επιστήμονες υπολογιστών για τον δεοντολογικά ευθυγραμμισμένο σχεδιασμό των συστημάτων ΤΝ».
  • Μια άλλη Ευρωπαϊκή Πρωτοβουλία Πολιτών (ΕΠΠ) με την ονομασία Reclaim Your Face ζήτησε την απαγόρευση της χρήσης επιβλαβούς ΤΝ, όπως η βιομετρική μαζική παρακολούθηση και η παρακολούθηση της αναγνώρισης προσώπου.
  • Ακόμη και το 1942, ο Isaac Asimov προέβλεψε τα προβλήματα και ανέφερε τρεις νόμους της ρομποτικής. Ο πρώτος νόμος είναι ότι ένα ρομπότ δεν πρέπει να βλάπτει άνθρωπο. Όπως φαίνεται στο παρόν άρθρο, απέχουμε πολύ από αυτό.

 

 

Stop 5G - Blog Post Author

Συντελεστές

Amar van Uden

Ο Amar van Uden είναι συγγραφέας της Ευρωπαϊκής Πρωτοβουλίας Πολιτών (ΕΠΠ) «Σταματήστε (((5G)) Ας μείνουμε συνδεδεμένοι αλλά προστατευμένοι». Η Amar είναι από τις Κάτω Χώρες και σπουδάζει τεχνητή νοημοσύνη.

Αφήστε ένα σχόλιο

Για να προσθέσετε τα σχόλιά σας, πρέπει να γίνει η ταυτοποίησή σας ή να εγγραφείτε.
Δήλωση αποποίησης ευθύνης: Τα σχόλια που διατυπώνονται στο φόρουμ της ΕΠΠ αντανακλούν αποκλειστικά τις απόψεις των συντακτών τους και δεν μπορεί σε καμία περίπτωση να θεωρηθεί ότι αντανακλούν τη θέση της Ευρωπαϊκής Επιτροπής ή της Ευρωπαϊκής Ένωσης.
Είστε έτοιμοι να καταχωρίσετε την πρωτοβουλία σας; Θέλετε να υποστηρίξετε μια πρωτοβουλία; Θέλετε να μάθετε περισσότερα για τρέχουσες ή παλαιότερες πρωτοβουλίες;