Ο όρος ακούγεται υψηλοτάτης, αλλά ο στόχος είναι εξαιρετικά πρακτικός: να δημιουργήσουμε συστήματα τεχνητής νοημοσύνης που οι άνθρωποι μπορούν να εμπιστευτούν - επειδή σχεδιάζονται, κατασκευάζονται και χρησιμοποιούνται με τρόπους που σέβονται τα ανθρώπινα δικαιώματα, μειώνουν τη βλάβη και προσφέρουν πραγματικό όφελος. Αυτό είναι όλο - ως επί το πλείστον.
Άρθρα που ίσως σας ενδιαφέρουν μετά από αυτό:
🔗 Τι είναι το MCP στην Τεχνητή Νοημοσύνη;
Εξηγεί το αρθρωτό πρωτόκολλο υπολογισμού και τον ρόλο του στην Τεχνητή Νοημοσύνη.
🔗 Τι είναι η Τεχνητή Νοημοσύνη Edge
Καλύπτει τον τρόπο με τον οποίο η επεξεργασία που βασίζεται στις άκρες επιτρέπει ταχύτερες, τοπικές αποφάσεις με τεχνητή νοημοσύνη.
🔗 Τι είναι η γενετική τεχνητή νοημοσύνη
Παρουσιάζει μοντέλα που δημιουργούν κείμενο, εικόνες και άλλο πρωτότυπο περιεχόμενο.
🔗 Τι είναι η πρακτορική τεχνητή νοημοσύνη
Περιγράφει αυτόνομοι πράκτορες Τεχνητής Νοημοσύνης (ΤΝ) ικανούς για λήψη αποφάσεων με γνώμονα τους στόχους.
Τι είναι η Δεοντολογία της Τεχνητής Νοημοσύνης; Ο απλός ορισμός 🧭
Η Δεοντολογία της Τεχνητής Νοημοσύνης είναι το σύνολο των αρχών, των διαδικασιών και των προστατευτικών κιγκλιδωμάτων που καθοδηγούν τον τρόπο με τον οποίο σχεδιάζουμε, αναπτύσσουμε, αναπτύσσουμε και διαχειριζόμαστε την Τεχνητή Νοημοσύνη, ώστε να υποστηρίζει τα ανθρώπινα δικαιώματα, τη δικαιοσύνη, τη λογοδοσία, τη διαφάνεια και το κοινωνικό καλό. Σκεφτείτε το ως καθημερινούς κανόνες του δρόμου για τους αλγόριθμους - με επιπλέον ελέγχους για τις περίεργες γωνίες όπου τα πράγματα μπορεί να πάνε στραβά.
Παγκόσμια σημεία αναφοράς το υποστηρίζουν αυτό: Η Σύσταση της UNESCO επικεντρώνεται στα ανθρώπινα δικαιώματα, την ανθρώπινη εποπτεία και τη δικαιοσύνη, με τη διαφάνεια και την αμεροληψία ως αδιαπραγμάτευτες πτυχές [1]. Οι Αρχές Τεχνητής Νοημοσύνης του ΟΟΣΑ στοχεύουν σε μια αξιόπιστη Τεχνητή Νοημοσύνη που σέβεται τις δημοκρατικές αξίες, ενώ παράλληλα παραμένει πρακτική για τις ομάδες πολιτικής και μηχανικής [2].
Εν ολίγοις, η Δεοντολογία της Τεχνητής Νοημοσύνης δεν είναι μια αφίσα στον τοίχο. Είναι ένα εγχειρίδιο που χρησιμοποιούν οι ομάδες για να προβλέπουν κινδύνους, να αποδεικνύουν την αξιοπιστία και να προστατεύουν τους ανθρώπους. Το Πλαίσιο Διαχείρισης Κινδύνων Τεχνητής Νοημοσύνης του NIST αντιμετωπίζει την ηθική ως ενεργή διαχείριση κινδύνου σε όλο τον κύκλο ζωής της Τεχνητής Νοημοσύνης [3].

Τι κάνει καλή την Ηθική της Τεχνητής Νοημοσύνης ✅
Ορίστε η απλή εκδοχή. Ένα καλό πρόγραμμα δεοντολογίας της τεχνητής νοημοσύνης:
-
Είναι βιωμένο, όχι πλαστικοποιημένο - πολιτικές που καθοδηγούν πραγματικές μηχανικές πρακτικές και αξιολογήσεις.
-
Ξεκινά από τη διαμόρφωση του προβλήματος - αν ο στόχος είναι λανθασμένος, καμία διόρθωση δίκαιης μεταχείρισης δεν θα τον σώσει.
-
Αποφάσεις εγγράφων - γιατί αυτά τα δεδομένα, γιατί αυτό το μοντέλο, γιατί αυτό το όριο.
-
Δοκιμές με βάση το πλαίσιο - αξιολόγηση ανά υποομάδα, όχι μόνο συνολική ακρίβεια (ένα βασικό θέμα του NIST) [3].
-
Δείχνει την εργασία του - κάρτες μοντέλων, τεκμηρίωση συνόλου δεδομένων και σαφείς επικοινωνίες χρήστη [5].
-
Ενισχύει την λογοδοσία - κατονομασμένοι κάτοχοι, διαδρομές κλιμάκωσης, δυνατότητα ελέγχου.
-
Ισορροπεί τους συμβιβασμούς στο ύπαιθρο - ασφάλεια έναντι χρησιμότητας έναντι απορρήτου, καταγεγραμμένα.
-
Συνδέεται με τη νομοθεσία - απαιτήσεις βάσει κινδύνου που κλιμακώνουν τους ελέγχους με αντίκτυπο (βλ. Νόμο της ΕΕ για την Τεχνητή Νοημοσύνη) [4].
Αν δεν αλλάζει ούτε μία απόφαση για ένα προϊόν, τότε δεν είναι ηθική - είναι διακόσμηση.
Γρήγορη απάντηση στο μεγάλο ερώτημα: Τι είναι η Δεοντολογία της Τεχνητής Νοημοσύνης; 🥤
Έτσι απαντούν οι ομάδες σε τρεις επαναλαμβανόμενες ερωτήσεις, ξανά και ξανά:
-
Πρέπει να το κατασκευάσουμε αυτό;
-
Αν ναι, πώς μπορούμε να μειώσουμε τη βλάβη και να την αποδείξουμε;
-
Όταν τα πράγματα πάνε στραβά, ποιος είναι υπεύθυνος και τι συμβαίνει στη συνέχεια;
Βαρετά πρακτικό. Παραδόξως δύσκολο. Άξιζε τον κόπο.
Μια μίνι-περίπτωση 60 δευτερολέπτων (εμπειρία στην πράξη) 📎
Μια ομάδα fintech παρουσιάζει ένα μοντέλο απάτης με μεγάλη συνολική ακρίβεια. Δύο εβδομάδες αργότερα, τα αιτήματα υποστήριξης από μια συγκεκριμένη περιοχή αυξάνονται - οι νόμιμες πληρωμές μπλοκάρονται. Μια ανασκόπηση υποομάδας δείχνει ότι η ανάκληση για αυτήν την τοποθεσία είναι 12 μονάδες χαμηλότερη από τον μέσο όρο. Η ομάδα επανεξετάζει την κάλυψη δεδομένων, επανεκπαιδεύεται με καλύτερη αναπαράσταση και δημοσιεύει μια ενημερωμένη κάρτα μοντέλου που τεκμηριώνει την αλλαγή, τις γνωστές προειδοποιήσεις και μια διαδρομή ελκυστικότητας χρήστη. Η ακρίβεια μειώνεται κατά ένα βαθμό. Η εμπιστοσύνη των πελατών αυξάνεται. Αυτή είναι ηθική ως διαχείριση κινδύνου και σεβασμός των χρηστών , όχι μια ανάρτηση [3][5].
Εργαλεία και πλαίσια που μπορείτε πραγματικά να χρησιμοποιήσετε 📋
(Μικρές ιδιορρυθμίες συμπεριλήφθηκαν επίτηδες - αυτή είναι η πραγματική ζωή.)
| Εργαλείο ή Πλαίσιο | Ακροατήριο | Τιμή | Γιατί λειτουργεί | Σημειώσεις |
|---|---|---|---|---|
| Πλαίσιο Διαχείρισης Κινδύνων Τεχνητής Νοημοσύνης NIST | Προϊόν, κίνδυνος, πολιτική | Δωρεάν | Σαφείς λειτουργίες - Διακυβέρνηση, Χαρτογράφηση, Μέτρηση, Διαχείριση - Ευθυγράμμιση ομάδων | Εθελοντικό, ευρέως αναφερόμενο [3] |
| Αρχές Τεχνητής Νοημοσύνης του ΟΟΣΑ | Στελέχη, υπεύθυνοι χάραξης πολιτικής | Δωρεάν | Αξίες + πρακτικές συμβουλές για αξιόπιστη Τεχνητή Νοημοσύνη | Μια σταθερή διακυβέρνηση βόρειος αστέρας [2] |
| Νόμος της ΕΕ για την Τεχνητή Νοημοσύνη (βάσει κινδύνου) | Νομικά, συμμόρφωση, CTOs | Δωρεάν* | Τα επίπεδα κινδύνου ορίζουν αναλογικούς ελέγχους για χρήσεις με υψηλό αντίκτυπο | Το κόστος συμμόρφωσης ποικίλλει [4] |
| Κάρτες μοντέλων | Μηχανικοί Μηχανικής Μάθησης, PMs | Δωρεάν | Τυποποιεί τι είναι ένα μοντέλο, τι κάνει και πού αποτυγχάνει | Υπάρχουν έγγραφα + παραδείγματα [5] |
| Τεκμηρίωση συνόλου δεδομένων («φύλλα δεδομένων») | Επιστήμονες δεδομένων | Δωρεάν | Εξηγεί την προέλευση των δεδομένων, την κάλυψη, τη συγκατάθεση και τους κινδύνους | Αντιμετωπίστε το σαν ετικέτα διατροφής |
Βαθιά κατάδυση 1 - Αρχές σε εφαρμογή, όχι στη θεωρία 🏃
-
Δικαιοσύνη - Αξιολόγηση της απόδοσης σε όλα τα δημογραφικά στοιχεία και τα πλαίσια. Οι συνολικές μετρήσεις αποκρύπτουν τη βλάβη [3].
-
Λογοδοσία - Αναθέστε σε κατόχους τις αποφάσεις για δεδομένα, μοντέλα και ανάπτυξη. Διατηρήστε αρχεία καταγραφής αποφάσεων.
-
Διαφάνεια - Χρησιμοποιήστε κάρτες μοντέλων· ενημερώστε τους χρήστες για το πόσο αυτοματοποιημένη είναι μια απόφαση και ποια μέσα προσφυγής υπάρχουν [5].
-
Ανθρώπινη εποπτεία - Ενημερώστε τους ανθρώπους για αποφάσεις υψηλού κινδύνου, με πραγματική εξουσία διακοπής/παράκαμψης (όπως έχει τεθεί ρητά στο προσκήνιο από την UNESCO) [1].
-
Απόρρητο και ασφάλεια - Ελαχιστοποιήστε και προστατέψτε τα δεδομένα. Λάβετε υπόψη τη διαρροή κατά τον χρόνο συμπερασμάτων και την κακή χρήση κατάντη.
-
Ευεργεσία - Επίδειξη κοινωνικού οφέλους, όχι απλώς απλών KPI (ο ΟΟΣΑ πλαισιώνει αυτήν την ισορροπία) [2].
Μικρή παρέκβαση: οι ομάδες μερικές φορές διαφωνούν για ώρες σχετικά με τα ονόματα των μετρήσεων, αγνοώντας το ερώτημα για την πραγματική ζημιά. Είναι περίεργο πώς συμβαίνει αυτό.
Βαθιά βουτιά 2 - Κίνδυνοι και πώς να τους μετρήσετε 📏
Η ηθική Τεχνητή Νοημοσύνη γίνεται συγκεκριμένη όταν αντιμετωπίζετε τη βλάβη ως μετρήσιμο κίνδυνο:
-
Χαρτογράφηση πλαισίου - Ποιος επηρεάζεται, άμεσα και έμμεσα; Ποια εξουσία λήψης αποφάσεων διαθέτει το σύστημα;
-
Καταλληλότητα δεδομένων - Αναπαράσταση, απόκλιση, ποιότητα επισήμανσης, διαδρομές συναίνεσης.
-
Συμπεριφορά μοντέλου - Τρόποι αποτυχίας υπό μετατόπιση κατανομής, αντίπαλες προτροπές ή κακόβουλες εισόδους.
-
Εκτίμηση επιπτώσεων - Σοβαρότητα × πιθανότητα, μέτρα μετριασμού και υπολειπόμενος κίνδυνος.
-
Έλεγχοι κύκλου ζωής - Από τη διαμόρφωση προβλημάτων έως την παρακολούθηση μετά την ανάπτυξη.
Το NIST αναλύει αυτό σε τέσσερις λειτουργίες που μπορούν να υιοθετήσουν οι ομάδες χωρίς να επανεφεύρουν τον τροχό: Διακυβέρνηση, Χαρτογράφηση, Μέτρηση, Διαχείριση [3].
Βαθιά βουτιά 3 - Τεκμηρίωση που σας σώζει αργότερα 🗂️
Δύο ταπεινά αντικείμενα κάνουν περισσότερα από οποιοδήποτε σύνθημα:
-
Κάρτες Μοντέλων - Σε τι χρησιμεύει το μοντέλο, πώς αξιολογήθηκε, πού αποτυγχάνει, ηθικές παραμέτρους και προειδοποιήσεις - σύντομες, δομημένες, ευανάγνωστες [5].
-
Τεκμηρίωση συνόλου δεδομένων («φύλλα δεδομένων») - Γιατί υπάρχουν αυτά τα δεδομένα, πώς συλλέχθηκαν, ποιος εκπροσωπείται, γνωστά κενά και συνιστώμενες χρήσεις.
Αν ποτέ χρειαστεί να εξηγήσετε σε ρυθμιστικές αρχές ή δημοσιογράφους γιατί ένα μοντέλο συμπεριφέρθηκε άσχημα, θα ευχαριστήσετε τον εαυτό σας στο παρελθόν που τα έγραψε αυτά. Μελλοντικά - θα αγοράσετε καφέ στο παρελθόν - εσείς.
Βαθιά βουτιά 4 - Διακυβέρνηση που πραγματικά δαγκώνει 🧩
-
Ορισμός επιπέδων κινδύνου - Δανειστείτε την ιδέα που βασίζεται στον κίνδυνο, ώστε οι περιπτώσεις χρήσης με υψηλό αντίκτυπο να εξεταστούν σε βάθος [4].
-
Πύλες σταδίου - Έλεγχος δεοντολογίας κατά την εισαγωγή, πριν από την κυκλοφορία και μετά την κυκλοφορία. Όχι δεκαπέντε πύλες. Τρεις είναι αρκετές.
-
Διαχωρισμός καθηκόντων - Οι κατασκευαστές προτείνουν, οι εταίροι διαχείρισης κινδύνων εξετάζουν, οι ηγέτες υπογράφουν. Σαφείς γραμμές.
-
Απόκριση σε περιστατικό - Ποιος θέτει σε παύση ένα μοντέλο, πώς ειδοποιούνται οι χρήστες, πώς φαίνεται η διόρθωση.
-
Ανεξάρτητοι έλεγχοι - Πρώτα οι εσωτερικοί έλεγχοι· εξωτερικοί όπου απαιτείται.
-
Εκπαίδευση και κίνητρα - Ανταμοιβή: Αναδεικνύοντας τα προβλήματα νωρίς, όχι αποκρύπτοντάς τα.
Ας είμαστε ειλικρινείς: αν η διακυβέρνηση δεν λέει ποτέ όχι , τότε δεν είναι διακυβέρνηση.
Βαθιά βουτιά 5 - Οι άνθρωποι στην λούπα, όχι ως στηρίγματα 👩⚖️
Η ανθρώπινη επίβλεψη δεν είναι ένα πλαίσιο ελέγχου - είναι μια επιλογή σχεδιασμού:
-
Όταν οι άνθρωποι αποφασίζουν - Σαφή όρια όπου ένα άτομο πρέπει να επανεξετάσει, ειδικά για αποτελέσματα υψηλού κινδύνου.
-
Εξηγησιμότητα για τους υπεύθυνους λήψης αποφάσεων - Δώστε στον άνθρωπο τόσο το γιατί όσο και την αβεβαιότητα .
-
Βρόχοι ανατροφοδότησης χρηστών - Επιτρέπουν στους χρήστες να αμφισβητούν ή να διορθώνουν αυτοματοποιημένες αποφάσεις.
-
Προσβασιμότητα - Διεπαφές που μπορούν να κατανοήσουν και να χρησιμοποιήσουν διαφορετικοί χρήστες.
Η καθοδήγηση της UNESCO είναι απλή εδώ: η ανθρώπινη αξιοπρέπεια και η εποπτεία είναι βασικές, όχι προαιρετικές. Δημιουργήστε το προϊόν έτσι ώστε οι άνθρωποι να μπορούν να παρέμβουν πριν συμβεί η ζημιά [1].
Σημείωση - Το επόμενο σύνορο: νευροτεχνολογία 🧠
Καθώς η Τεχνητή Νοημοσύνη διασταυρώνεται με τη νευροτεχνολογία, η πνευματική ιδιωτικότητα και η ελευθερία σκέψης γίνονται πραγματικές παράμετροι σχεδιασμού. Ισχύει το ίδιο εγχειρίδιο: αρχές που επικεντρώνονται στα δικαιώματα [1], διακυβέρνηση με βάση την αξιοπιστία βάσει σχεδιασμού [2] και αναλογικές διασφαλίσεις για χρήσεις υψηλού κινδύνου [4]. Κατασκευάστε έγκαιρα προστατευτικά κιγκλιδώματα αντί να τα στερεώσετε αργότερα.
Πώς απαντούν οι ομάδες Τι είναι η Δεοντολογία της Τεχνητής Νοημοσύνης; στην πράξη - μια ροή εργασίας 🧪
Δοκιμάστε αυτόν τον απλό βρόχο. Δεν είναι τέλειος, αλλά είναι πεισματικά αποτελεσματικός:
-
Έλεγχος σκοπού - Ποιο ανθρώπινο πρόβλημα λύνουμε και ποιος ωφελείται ή αναλαμβάνει τον κίνδυνο;
-
Χάρτης πλαισίου - Ενδιαφερόμενοι, περιβάλλοντα, περιορισμοί, γνωστοί κίνδυνοι.
-
Σχέδιο δεδομένων - Πηγές, συγκατάθεση, αντιπροσωπευτικότητα, διατήρηση, τεκμηρίωση.
-
Σχεδιασμός με γνώμονα την ασφάλεια - Δοκιμές ανταγωνισμού, red-teaming, προστασία της ιδιωτικής ζωής βάσει σχεδιασμού.
-
Ορίστε την έννοια της δικαιοσύνης - Επιλέξτε μετρήσεις κατάλληλες για τον τομέα και καταγράψτε τους συμβιβασμούς.
-
Σχέδιο εξηγησιμότητας - Τι θα εξηγηθεί, σε ποιον και πώς θα επικυρώσετε τη χρησιμότητα.
-
Κάρτα μοντέλου - Σύνταξη πρόχειρου σχεδίου, ενημέρωση κατά την εκτέλεση, δημοσίευση κατά την κυκλοφορία [5].
-
Πύλες διακυβέρνησης - Αναθεωρήσεις κινδύνου με υπεύθυνους ιδιοκτήτες· δομή που χρησιμοποιεί τις λειτουργίες του NIST [3].
-
Παρακολούθηση μετά την κυκλοφορία - Μετρήσεις, ειδοποιήσεις απόκλισης, εγχειρίδια συμβάντων, εκκλήσεις χρηστών.
Αν ένα βήμα σας φαίνεται βαρύ, προσαρμόστε το στο ρίσκο. Αυτό είναι το κόλπο. Η υπερβολική χρήση ενός bot διόρθωσης ορθογραφίας δεν βοηθάει κανέναν.
Ηθική έναντι συμμόρφωσης - η πικάντικη αλλά απαραίτητη διάκριση 🌶️
-
Η ηθική ρωτά: είναι αυτό το σωστό για τους ανθρώπους;
-
Η συμμόρφωση ρωτά: πληροί αυτό τους κανόνες;
Χρειάζεστε και τα δύο. Το μοντέλο της ΕΕ που βασίζεται στον κίνδυνο μπορεί να αποτελέσει τη ραχοκοκαλιά της συμμόρφωσής σας, αλλά το πρόγραμμα δεοντολογίας σας θα πρέπει να υπερβαίνει τα ελάχιστα όρια - ειδικά σε περιπτώσεις αμφιλεγόμενης ή πρωτότυπης χρήσης [4].
Μια γρήγορη (ελαττωματική) μεταφορά: η συμμόρφωση είναι ο φράχτης· η ηθική είναι ο βοσκός. Ο φράχτης σε κρατάει εντός ορίων· ο βοσκός σε κρατάει στον σωστό δρόμο.
Συνήθεις παγίδες - και τι να κάνετε αντ' αυτού 🚧
-
Παγίδα: θέατρο ηθικής - φανταχτερές αρχές χωρίς πόρους.
Διόρθωση: αφιερώστε χρόνο, ιδιοκτήτες και σημεία ελέγχου αξιολόγησης. -
Παγίδα: η μέση απομάκρυνση της βλάβης - οι εξαιρετικές συνολικές μετρήσεις κρύβουν την αποτυχία της υποομάδας.
Διόρθωση: η αξιολόγηση γίνεται πάντα με βάση τους σχετικούς υποπληθυσμούς [3]. -
Παγίδα: μυστικότητα μεταμφιεσμένη σε ασφάλεια - απόκρυψη λεπτομερειών από τους χρήστες.
Διόρθωση: αποκάλυψη δυνατοτήτων, ορίων και προσφυγών με απλή γλώσσα [5]. -
Παγίδα: έλεγχος στο τέλος - εύρεση προβλημάτων ακριβώς πριν από την κυκλοφορία.
Διόρθωση: μετακίνηση προς τα αριστερά - καθιέρωση της ηθικής ως μέρος του σχεδιασμού και της συλλογής δεδομένων. -
Παγίδα: λίστες ελέγχου χωρίς κρίση - ακολουθώντας φόρμες, χωρίς νόημα.
Διόρθωση: συνδυάστε πρότυπα με κριτική ειδικών και έρευνα χρηστών.
Συχνές ερωτήσεις - τα πράγματα που θα σας ρωτήσουν ούτως ή άλλως ❓
Είναι η Δεοντολογία της Τεχνητής Νοημοσύνης κατά της καινοτομίας;
Όχι. Είναι μια καινοτομία υπέρ της χρήσιμης. Η Δεοντολογία αποφεύγει τα αδιέξοδα, όπως τα μεροληπτικά συστήματα που προκαλούν αντιδράσεις ή νομικά προβλήματα. Το πλαίσιο του ΟΟΣΑ προωθεί ρητά την καινοτομία με ασφάλεια [2].
Χρειαζόμαστε κάτι τέτοιο εάν το προϊόν μας είναι χαμηλού κινδύνου;
Ναι, αλλά ελαφρύτερο. Χρησιμοποιήστε αναλογικούς ελέγχους. Αυτή η ιδέα που βασίζεται στον κίνδυνο είναι στάνταρ στην προσέγγιση της ΕΕ [4].
Ποια έγγραφα είναι απαραίτητα;
Κατ' ελάχιστον: τεκμηρίωση συνόλου δεδομένων για τα κύρια σύνολα δεδομένων σας, μια κάρτα μοντέλου για κάθε μοντέλο και ένα αρχείο καταγραφής αποφάσεων έκδοσης [5].
Ποιος είναι υπεύθυνος για την ηθική της τεχνητής νοημοσύνης;
Όλοι είναι υπεύθυνοι για τη συμπεριφορά, αλλά οι ομάδες προϊόντων, επιστήμης δεδομένων και διαχείρισης κινδύνων χρειάζονται συγκεκριμένες αρμοδιότητες. Οι λειτουργίες του NIST αποτελούν μια καλή βάση [3].
Δεν το διάβασα για πολύ καιρό - Τελικές παρατηρήσεις 💡
Αν τα διαβάσατε όλα αυτά γρήγορα, ιδού η ουσία: Τι είναι η Δεοντολογία της Τεχνητής Νοημοσύνης; Είναι ένας πρακτικός κλάδος για την οικοδόμηση Τεχνητής Νοημοσύνης που οι άνθρωποι μπορούν να εμπιστευτούν. Βασιστείτε σε ευρέως αποδεκτές οδηγίες - την άποψη της UNESCO που επικεντρώνεται στα δικαιώματα και τις αξιόπιστες αρχές Τεχνητής Νοημοσύνης του ΟΟΣΑ. Χρησιμοποιήστε το πλαίσιο κινδύνου του NIST για να το εφαρμόσετε λειτουργικά και συνοδεύστε το με κάρτες μοντέλων και τεκμηρίωση συνόλων δεδομένων, ώστε οι επιλογές σας να είναι ευανάγνωστες. Στη συνέχεια, συνεχίστε να ακούτε - τους χρήστες, τα ενδιαφερόμενα μέρη, τη δική σας παρακολούθηση - και προσαρμόστε το. Η ηθική δεν είναι κάτι που γίνεται μία φορά. Είναι συνήθεια.
Και ναι, μερικές φορές θα διορθώσεις την πορεία σου. Αυτό δεν είναι αποτυχία. Αυτή είναι η δουλειά. 🌱
Αναφορές
-
UNESCO - Σύσταση για την Ηθική της Τεχνητής Νοημοσύνης (2021). Σύνδεσμος
-
ΟΟΣΑ - Αρχές Τεχνητής Νοημοσύνης (2019). Σύνδεσμος
-
NIST - Πλαίσιο Διαχείρισης Κινδύνων Τεχνητής Νοημοσύνης (AI RMF 1.0) (2023) (PDF). Σύνδεσμος
-
EUR-Lex - Κανονισμός (ΕΕ) 2024/1689 (Νόμος περί Τεχνητής Νοημοσύνης). Σύνδεσμος
-
Mitchell et al. - «Κάρτες μοντέλων για την αναφορά μοντέλων» (ACM, 2019). Σύνδεσμος