Σύντομη απάντηση: Οι προγραμματιστές που χρησιμοποιούν γενετική τεχνητή νοημοσύνη είναι υπεύθυνοι για ολόκληρο το σύστημα, όχι μόνο για την έξοδο του μοντέλου. Όταν η τεχνητή νοημοσύνη επηρεάζει τις αποφάσεις, τον κώδικα, το απόρρητο ή την εμπιστοσύνη των χρηστών, πρέπει να επιλέγουν ασφαλείς εφαρμογές, να επαληθεύουν τα αποτελέσματα, να προστατεύουν τα δεδομένα, να μειώνουν τη βλάβη και να διασφαλίζουν ότι οι άνθρωποι μπορούν να ελέγχουν, να παρακάμπτουν και να διορθώνουν λάθη.
Βασικά συμπεράσματα:
Επαλήθευση : Αντιμετωπίστε τα επεξεργασμένα αποτελέσματα ως μη αξιόπιστα μέχρι να τα επιβεβαιώσουν πηγές, δοκιμές ή ανθρώπινη αξιολόγηση.
Προστασία δεδομένων : Ελαχιστοποιήστε τα δεδομένα προτροπής, αφαιρέστε αναγνωριστικά και ασφαλίστε τα αρχεία καταγραφής, τους ελέγχους πρόσβασης και τους προμηθευτές.
Δικαιοσύνη : Δοκιμή σε όλα τα δημογραφικά στοιχεία και τα πλαίσια για τον εντοπισμό στερεοτύπων και ανομοιόμορφων μοτίβων αποτυχίας.
Διαφάνεια : Επισημάνετε με σαφήνεια τη χρήση της Τεχνητής Νοημοσύνης, εξηγήστε τα όριά της και προσφέρετε ανθρώπινη αξιολόγηση ή ένσταση.
Λογοδοσία : Ορίστε σαφείς υπεύθυνους για την ανάπτυξη, τα συμβάντα, την παρακολούθηση και την επαναφορά πριν από την κυκλοφορία.

Άρθρα που ίσως σας ενδιαφέρουν μετά από αυτό:
🔗 Τα καλύτερα εργαλεία τεχνητής νοημοσύνης για προγραμματιστές λογισμικού: Κορυφαίοι βοηθοί κωδικοποίησης με τεχνητή νοημοσύνη
Συγκρίνετε κορυφαίους βοηθούς κωδικοποίησης τεχνητής νοημοσύνης για ταχύτερες και καθαρότερες ροές εργασίας ανάπτυξης.
🔗 Τα 10 κορυφαία εργαλεία τεχνητής νοημοσύνης για προγραμματιστές για την ενίσχυση της παραγωγικότητας
Κατάταξη σε λίστα με εργαλεία τεχνητής νοημοσύνης για προγραμματιστές για πιο έξυπνο προγραμματισμό και ταχύτητα.
🔗 Γιατί η Τεχνητή Νοημοσύνη μπορεί να είναι κακή για την κοινωνία και την εμπιστοσύνη
Εξηγεί τις βλάβες στον πραγματικό κόσμο: προκατάληψη, ιδιωτικότητα, θέσεις εργασίας και κινδύνους παραπληροφόρησης.
🔗 Μήπως η Τεχνητή Νοημοσύνη έχει παρατραβήξει τις αποφάσεις που έχουν υψηλό ρίσκο;
Ορίζει πότε η Τεχνητή Νοημοσύνη ξεπερνά τα όρια: επιτήρηση, deepfakes, πειθώ, μη συναίνεση.
Γιατί η ευθύνη των προγραμματιστών που χρησιμοποιούν Γενετική Τεχνητή Νοημοσύνη έχει μεγαλύτερη σημασία από ό,τι νομίζουν οι άνθρωποι
Πολλά σφάλματα λογισμικού είναι ενοχλητικά. Ένα κουμπί σπάει. Μια σελίδα φορτώνει αργά. Κάτι κολλάει και όλοι στενάζουν.
Τα προβλήματα της γενετικής τεχνητής νοημοσύνης μπορεί να είναι διαφορετικά. Μπορεί να είναι ανεπαίσθητα.
Ένα μοντέλο μπορεί να ακούγεται σίγουρο ενώ κάνει λάθος. Προφίλ NIST GenAI Μπορεί να αναπαράγει προκατάληψη χωρίς εμφανή προειδοποιητικά σημάδια. Προφίλ NIST GenAI Μπορεί να εκθέσει ευαίσθητα δεδομένα εάν χρησιμοποιηθεί απρόσεκτα. OWASP Top 10 για Εφαρμογές LLM Οι οκτώ ερωτήσεις του ICO για την γενετική Τεχνητή Νοημοσύνη Μπορεί να παράγει κώδικα που λειτουργεί - μέχρι να αποτύχει στην παραγωγή με κάποιον πολύ ενοχλητικό τρόπο. OWASP Top 10 για Εφαρμογές LLM Κάτι σαν να προσλαμβάνεις έναν πολύ ενθουσιώδη ασκούμενο που δεν κοιμάται ποτέ και κατά καιρούς εφευρίσκει γεγονότα με εκπληκτική αυτοπεποίθηση.
Γι' αυτό η ευθύνη των προγραμματιστών που χρησιμοποιούν Γενετική Τεχνητή Νοημοσύνη (Generative AI) είναι μεγαλύτερη από την απλή υλοποίηση. Οι προγραμματιστές δεν κατασκευάζουν πλέον μόνο λογικά συστήματα. Κατασκευάζουν πιθανοτικά συστήματα με ασαφείς ακμές, απρόβλεπτες εξόδους και πραγματικές κοινωνικές συνέπειες. NIST AI RMF
Αυτό σημαίνει ότι η ευθύνη περιλαμβάνει:
-
κατανόηση των ορίων του μοντέλου NIST AI RMF
-
προστασία του απορρήτου των χρηστών, καθοδήγηση ICO σχετικά με την τεχνητή νοημοσύνη και την προστασία δεδομένων
-
μείωση των επιβλαβών εκπομπών NIST GenAI Profile
-
έλεγχος ακρίβειας πριν από την παραχώρηση εμπιστοσύνης Προφίλ NIST GenAI
-
καθιστώντας σαφή τον ανθρώπινο ρόλο Αρχές Τεχνητής Νοημοσύνης του ΟΟΣΑ
-
Σχεδιασμός εναλλακτικών διαδρομών όταν η τεχνητή νοημοσύνη αποτυγχάνει Αρχές Τεχνητής Νοημοσύνης του ΟΟΣΑ Κατευθυντήριες γραμμές για την ασφαλή τεχνητή νοημοσύνη του NCSC
-
τεκμηρίωση του συστήματος με σαφήνεια Αρχές Τεχνητής Νοημοσύνης του ΟΟΣΑ
Ξέρεις πώς πάει - όταν ένα εργαλείο σου φαίνεται μαγικό, οι άνθρωποι σταματούν να το αμφισβητούν. Οι προγραμματιστές δεν έχουν την πολυτέλεια να είναι τόσο χαλαροί.
Τι κάνει μια καλή εκδοχή της ευθύνης των προγραμματιστών που χρησιμοποιούν Generative AI; 🛠️
Μια καλή εκδοχή της ευθύνης δεν είναι η επιτελεστική. Δεν είναι απλώς η προσθήκη μιας δήλωσης αποποίησης ευθύνης στο κάτω μέρος και ο χαρακτηρισμός της ως ηθικής. Εμφανίζεται στις επιλογές σχεδιασμού, στις συνήθειες δοκιμών και στη συμπεριφορά του προϊόντος.
Δείτε πώς μοιάζει συνήθως ευθύνης των προγραμματιστών που χρησιμοποιούν Generative AI
-
Σκόπιμη χρήση NIST AI RMF
-
Η Τεχνητή Νοημοσύνη χρησιμοποιείται για ένα πραγματικό πρόβλημα, δεν ενσωματώνεται στο προϊόν επειδή ακούγεται της μόδας.
-
-
Ανθρώπινη εποπτεία Αρχές Τεχνητής Νοημοσύνης του ΟΟΣΑ
-
Οι χρήστες μπορούν να ελέγξουν, να διορθώσουν, να παρακάμψουν ή να απορρίψουν τα αποτελέσματα.
-
-
Ασφάλεια από τον σχεδιασμό Οδηγίες ασφαλούς τεχνητής νοημοσύνης του NCSC
-
Οι έλεγχοι κινδύνου ενσωματώνονται νωρίς και δεν επικολλώνται με ταινία αργότερα.
-
-
Διαφάνεια Αρχές Τεχνητής Νοημοσύνης του ΟΟΣΑ Επισκόπηση του Νόμου περί Τεχνητής Νοημοσύνης της Ευρωπαϊκής Επιτροπής
-
Οι χρήστες κατανοούν πότε το περιεχόμενο παράγεται ή υποστηρίζεται από Τεχνητή Νοημοσύνη.
-
-
Οι οκτώ ερωτήσεις του ICO για την γενετική τεχνητή νοημοσύνη (Generative AI) στον τομέα της φροντίδας δεδομένων
-
Οι ευαίσθητες πληροφορίες αντιμετωπίζονται προσεκτικά και η πρόσβαση είναι περιορισμένη.
-
-
Έλεγχοι δικαιοσύνης Προφίλ NIST GenAI Οδηγίες ICO σχετικά με την Τεχνητή Νοημοσύνη και την προστασία δεδομένων
-
Το σύστημα δοκιμάζεται για μεροληψία, ανομοιόμορφη απόδοση και επιβλαβή μοτίβα.
-
-
Συνεχής παρακολούθηση NIST AI RMF NCSC ασφαλείς οδηγίες τεχνητής νοημοσύνης
-
Η εκτόξευση δεν είναι η γραμμή τερματισμού. Είναι περισσότερο σαν το σφύριγμα εκκίνησης.
-
Αν αυτό ακούγεται πολύ, ε, λοιπόν... είναι. Αλλά αυτό συμβαίνει όταν εργάζεσαι με τεχνολογία που μπορεί να επηρεάσει αποφάσεις, πεποιθήσεις και συμπεριφορά σε μεγάλη κλίμακα. Αρχές Τεχνητής Νοημοσύνης του ΟΟΣΑ
Συγκριτικός Πίνακας - η βασική ευθύνη των Προγραμματιστών που χρησιμοποιούν Generative AI με μια ματιά 📋
| Περιοχή ευθύνης | Ποιους επηρεάζει | Καθημερινή πρακτική προγραμματιστών | Γιατί έχει σημασία |
|---|---|---|---|
| Ακρίβεια και επαλήθευση | χρήστες, ομάδες, πελάτες | Έλεγχος αποτελεσμάτων, προσθήκη επιπέδων επικύρωσης, δοκιμή περιπτώσεων αιχμής | Η τεχνητή νοημοσύνη μπορεί να είναι άπταιστη και παρόλα αυτά να κάνει εντελώς λάθη - κάτι που είναι ένας πρόχειρος συνδυασμός. Προφίλ NIST GenAI. |
| Προστασία απορρήτου | χρήστες, πελάτες, εσωτερικό προσωπικό | Ελαχιστοποίηση χρήσης ευαίσθητων δεδομένων, προτροπών σάρωσης, ελέγχου αρχείων καταγραφής | Μόλις διαρρεύσουν ιδιωτικά δεδομένα, η οδοντόκρεμα βγαίνει από το σωληνάριο 😬 Οκτώ ερωτήσεις του ICO για την γενετική τεχνητή νοημοσύνη OWASP Top 10 για εφαρμογές LLM |
| Προκατάληψη και δικαιοσύνη | υποεκπροσωπούμενες ομάδες, όλοι οι χρήστες στην πραγματικότητα | Έλεγχος αποτελεσμάτων, δοκιμή ποικίλων εισροών, ρύθμιση των μέτρων ασφαλείας | Η βλάβη δεν είναι πάντα δυνατή - μερικές φορές είναι συστηματική και ήσυχη. για το προφίλ NIST GenAI σχετικά με την τεχνητή νοημοσύνη και την προστασία δεδομένων. |
| Ασφάλεια | εταιρικά συστήματα, χρήστες | Περιορισμός πρόσβασης στο μοντέλο, προστασία από άμεση εισαγωγή, επικίνδυνες ενέργειες sandbox | Ένα έξυπνο exploit μπορεί να καταστρέψει γρήγορα την εμπιστοσύνη - OWASP Top 10 για εφαρμογές LLM - NCSC για την Τεχνητή Νοημοσύνη και την κυβερνοασφάλεια |
| Διαφάνεια | τελικοί χρήστες, ρυθμιστικές αρχές, ομάδες υποστήριξης | Ονομάστε με σαφήνεια τη συμπεριφορά της Τεχνητής Νοημοσύνης, εξηγήστε τα όρια, καταγράψτε τη χρήση | Οι άνθρωποι αξίζουν να γνωρίζουν πότε η μηχανή βοηθάει Πρακτικής Αρχών Τεχνητής Νοημοσύνης του ΟΟΣΑ σχετικά με τη σήμανση και την επισήμανση περιεχομένου που δημιουργείται από Τεχνητή Νοημοσύνη |
| Ευθύνη | ιδιοκτήτες προϊόντων, νομικά, ομάδες ανάπτυξης | Ορισμός ιδιοκτησίας, χειρισμού περιστατικών, διαδρομών κλιμάκωσης | Το «το έκανε η Τεχνητή Νοημοσύνη» δεν είναι μια απάντηση ενηλίκων - Αρχές Τεχνητής Νοημοσύνης του ΟΟΣΑ |
| Αξιοπιστία | όλοι όσοι αγγίζουν το προϊόν | Παρακολούθηση αποτυχιών, ορισμός ορίων εμπιστοσύνης, δημιουργία λογικής εφεδρείας | Τα μοντέλα παρεκκλίνουν, αποτυγχάνουν με απροσδόκητους τρόπους και κατά καιρούς έχουν ένα δραματικό μικρό επεισόδιο NIST AI RMF NCSC ασφαλείς οδηγίες AI |
| Ευημερία χρήστη | ιδιαίτερα ευάλωτοι χρήστες | Αποφύγετε τον χειριστικό σχεδιασμό, περιορίστε τα επιβλαβή αποτελέσματα, εξετάστε περιπτώσεις χρήσης υψηλού κινδύνου | Το γεγονός ότι κάτι μπορεί να παραχθεί δεν σημαίνει ότι θα πρέπει να είναι και Αρχές Τεχνητής Νοημοσύνης του ΟΟΣΑ, NIST AI RMF |
Ένα ελαφρώς ανώμαλο τραπέζι, σίγουρα, αλλά αυτό ταιριάζει στο θέμα. Η πραγματική ευθύνη είναι επίσης άνιση.
Η ευθύνη ξεκινά πριν από την πρώτη προτροπή - επιλογή της σωστής περίπτωσης χρήσης 🎯
Μία από τις μεγαλύτερες ευθύνες που έχουν οι προγραμματιστές είναι να αποφασίσουν εάν θα πρέπει να χρησιμοποιηθεί καθόλου η γενετική τεχνητή νοημοσύνη . NIST AI RMF
Αυτό ακούγεται προφανές, αλλά παραλείπεται συνεχώς. Οι ομάδες βλέπουν ένα μοντέλο, ενθουσιάζονται και αρχίζουν να το ενσωματώνουν σε ροές εργασίας που θα μπορούσαν να αντιμετωπιστούν καλύτερα με κανόνες, αναζήτηση ή συνηθισμένη λογική λογισμικού. Δεν χρειάζεται κάθε πρόβλημα ένα γλωσσικό μοντέλο. Ορισμένα προβλήματα χρειάζονται μια βάση δεδομένων και ένα ήσυχο απόγευμα.
Πριν από την κατασκευή, οι κατασκευαστές θα πρέπει να ρωτήσουν:
-
Είναι η εργασία ανοιχτού τύπου ή ντετερμινιστική;
-
Θα μπορούσε η λανθασμένη έξοδος να προκαλέσει βλάβη;
-
Χρειάζονται οι χρήστες δημιουργικότητα, πρόβλεψη, σύνοψη, αυτοματοποίηση - ή απλώς ταχύτητα;
-
Θα εμπιστευτούν οι άνθρωποι υπερβολικά την έξοδο; Προφίλ NIST GenAI
-
Μπορεί ένας άνθρωπος να εξετάσει ρεαλιστικά τα αποτελέσματα; Αρχές Τεχνητής Νοημοσύνης του ΟΟΣΑ
-
Τι συμβαίνει όταν το μοντέλο είναι λανθασμένο; Αρχές Τεχνητής Νοημοσύνης του ΟΟΣΑ
Ένας υπεύθυνος προγραμματιστής δεν ρωτάει απλώς «Μπορούμε να το κατασκευάσουμε αυτό;» Ρωτάει «Πρέπει να κατασκευαστεί έτσι;» NIST AI RMF
Αυτή η ερώτηση από μόνη της αποτρέπει πολλές γυαλιστερές ανοησίες.
Η ακρίβεια είναι ευθύνη, όχι πρόσθετο χαρακτηριστικό ✅
Ας είμαστε σαφείς - μία από τις μεγαλύτερες παγίδες στην παραγωγική τεχνητή νοημοσύνη είναι η σύγχυση της ευγλωττίας με την αλήθεια. Τα μοντέλα συχνά παράγουν απαντήσεις που ακούγονται στιλβωμένες, δομημένες και βαθιά πειστικές. Κάτι που είναι υπέροχο, μέχρι το περιεχόμενο να γίνει ανοησία τυλιγμένο σε εμπιστευτικότητα. Προφίλ NIST GenAI
Έτσι, η ευθύνη των προγραμματιστών που χρησιμοποιούν Generative AI περιλαμβάνει την κατασκευή για επαλήθευση.
Αυτό σημαίνει:
-
χρησιμοποιώντας ανάκτηση ή γείωση όπου είναι δυνατόν Προφίλ NIST GenAI
-
Διαχωρισμός του παραγόμενου περιεχομένου από τα επιβεβαιωμένα γεγονότα Αρχές Τεχνητής Νοημοσύνης του ΟΟΣΑ
-
Προσεκτική προσθήκη ορίων εμπιστοσύνης NIST AI RMF
-
δημιουργία ροών εργασίας αναθεώρησης για αποτελέσματα υψηλού διακυβεύματος Αρχές Τεχνητής Νοημοσύνης του ΟΟΣΑ
-
αποτρέποντας το μοντέλο από το να αυτοσχεδιάζει σε κρίσιμα περιβάλλοντα Προφίλ NIST GenAI
-
Προτροπές δοκιμών που προσπαθούν να παραβιάσουν ή να παραπλανήσουν το σύστημα OWASP Top 10 για εφαρμογές LLM
Αυτό έχει μεγάλη σημασία σε τομείς όπως:
-
υγειονομική περίθαλψη
-
οικονομικά
-
νομικές ροές εργασίας
-
εκπαίδευση
-
υποστήριξη πελατών
-
αυτοματοποίηση επιχειρήσεων
-
δημιουργία κώδικα
Ο παραγόμενος κώδικας, για παράδειγμα, μπορεί να φαίνεται τακτοποιημένος, ενώ παράλληλα κρύβει κενά ασφαλείας ή λογικά λάθη. Ένας προγραμματιστής που τον αντιγράφει τυφλά δεν είναι αποτελεσματικός - απλώς αναθέτει σε τρίτους τον κίνδυνο σε μια πιο όμορφη μορφή. OWASP Top 10 για εφαρμογές LLM NCSC σε θέματα Τεχνητής Νοημοσύνης και κυβερνοασφάλειας
Το μοντέλο μπορεί να βοηθήσει. Ο προγραμματιστής εξακολουθεί να έχει την ευθύνη του αποτελέσματος. Αρχές Τεχνητής Νοημοσύνης του ΟΟΣΑ
Η προστασία της ιδιωτικής ζωής και η διαχείριση δεδομένων δεν είναι διαπραγματεύσιμα 🔐
Εδώ είναι που τα πράγματα σοβαρεύουν γρήγορα. Τα συστήματα γενετικής τεχνητής νοημοσύνης συχνά βασίζονται σε μηνύματα, αρχεία καταγραφής, παράθυρα περιβάλλοντος, επίπεδα μνήμης, αναλυτικά στοιχεία και υποδομή τρίτων. Αυτό δημιουργεί πολλές πιθανότητες διαρροής, διατήρησης ή επαναχρησιμοποίησης ευαίσθητων δεδομένων με τρόπους που οι χρήστες δεν περίμεναν ποτέ. Οι οκτώ ερωτήσεις του ICO για τη γενετική τεχνητή νοημοσύνη OWASP Top 10 για εφαρμογές LLM
Οι προγραμματιστές έχουν την ευθύνη να προστατεύουν:
-
προσωπικά στοιχεία
-
οικονομικά αρχεία
-
ιατρικές λεπτομέρειες
-
εσωτερικά δεδομένα της εταιρείας
-
εμπορικά μυστικά
-
διακριτικά ελέγχου ταυτότητας
-
επικοινωνίες πελατών
Οι υπεύθυνες πρακτικές περιλαμβάνουν:
-
ελαχιστοποίηση των δεδομένων που εισέρχονται στις οκτώ ερωτήσεις του μοντέλου ICO για την γενετική τεχνητή νοημοσύνη
-
απόκρυψη ή αφαίρεση αναγνωριστικών NIST GenAI Profile
-
περιορισμός της διατήρησης αρχείων καταγραφής, καθοδήγηση ICO σχετικά με την τεχνητή νοημοσύνη και την προστασία δεδομένων
-
έλεγχος του ποιος μπορεί να έχει πρόσβαση σε προτροπές και εξόδους OWASP Top 10 για εφαρμογές LLM
-
Προσεκτική αναθεώρηση των ρυθμίσεων των προμηθευτών Οδηγίες ασφαλούς τεχνητής νοημοσύνης του NCSC
-
απομόνωση ροών εργασίας υψηλού κινδύνου Οδηγίες ασφαλούς τεχνητής νοημοσύνης του NCSC
-
κάνοντας τη συμπεριφορά απορρήτου ορατή στους χρήστες Οι οκτώ ερωτήσεις του ICO για την γενετική τεχνητή νοημοσύνη
Αυτός είναι ένας από εκείνους τους τομείς όπου το «ξεχάσαμε να το σκεφτούμε» δεν είναι ένα μικρό λάθος. Είναι μια αποτυχία που κλονίζει την εμπιστοσύνη.
Και η εμπιστοσύνη, όταν ραγίσει, εξαπλώνεται σαν πεσμένο γυαλί. Ίσως όχι και η πιο εύστοχη μεταφορά, αλλά το καταλαβαίνετε.
Προκατάληψη, δικαιοσύνη και εκπροσώπηση - οι πιο ήσυχες ευθύνες ⚖️
Η προκατάληψη στην παραγωγική τεχνητή νοημοσύνη σπάνια είναι ένας κακός χαρακτήρας. Συνήθως είναι πιο ύπουλη από αυτό. Ένα μοντέλο μπορεί να παράγει στερεότυπες περιγραφές θέσεων εργασίας, άνισες αποφάσεις εποπτείας, μονόπλευρες συστάσεις ή πολιτισμικά περιορισμένες υποθέσεις χωρίς να πυροδοτεί προφανείς συναγερμούς. Προφίλ NIST GenAI.
Γι' αυτόν τον λόγο, η ευθύνη των προγραμματιστών που χρησιμοποιούν την Γενετική Τεχνητή Νοημοσύνη περιλαμβάνει και την ενεργό δίκαιη εργασία.
Οι προγραμματιστές θα πρέπει:
-
Προτάσεις δοκιμών από διαφορετικά δημογραφικά στοιχεία και περιβάλλοντα Προφίλ NIST GenAI
-
Ανασκόπηση αποτελεσμάτων για στερεότυπα και αποκλεισμούς NIST GenAI Profile
-
Να συμπεριληφθούν ποικίλες απόψεις κατά την αξιολόγηση NIST AI RMF
-
Παρακολουθήστε για ανομοιόμορφα μοτίβα αστοχίας Προφίλ NIST GenAI
-
αποφύγετε να υποθέτετε ότι ένα γλωσσικό στυλ ή ένας πολιτιστικός κανόνας ταιριάζει σε όλους. Οδηγίες του ICO σχετικά με την τεχνητή νοημοσύνη και την προστασία δεδομένων
-
δημιουργία καναλιών αναφοράς για επιβλαβή αποτελέσματα NIST AI RMF
Ένα σύστημα μπορεί να φαίνεται ότι λειτουργεί καλά συνολικά, ενώ παράλληλα εξυπηρετεί ορισμένους χρήστες χειρότερα από άλλους. Αυτό δεν είναι αποδεκτό μόνο και μόνο επειδή η μέση απόδοση φαίνεται καλή σε έναν πίνακα ελέγχου. Οδηγίες ICO σχετικά με την Τεχνητή Νοημοσύνη και την προστασία δεδομένων Προφίλ NIST GenAI
Και ναι, η δικαιοσύνη είναι πιο δύσκολη από μια τακτοποιημένη λίστα ελέγχου. Περιέχει κρίση. Πλαίσιο. Συμβιβασμούς. Ένα μέτρο δυσφορίας επίσης. Αλλά αυτό δεν αφαιρεί την ευθύνη - την επιβεβαιώνει. Οδηγίες του ICO για την Τεχνητή Νοημοσύνη και την προστασία δεδομένων
Η ασφάλεια είναι πλέον εν μέρει άμεσος σχεδιασμός και εν μέρει μηχανική πειθαρχία 🧱
Η ασφάλεια της γενετικής τεχνητής νοημοσύνης είναι το δικό της ιδιαίτερο θηρίο. Η παραδοσιακή ασφάλεια εφαρμογών εξακολουθεί να έχει σημασία, φυσικά, αλλά τα συστήματα τεχνητής νοημοσύνης προσθέτουν ασυνήθιστες επιφάνειες επίθεσης: άμεση έγχυση, έμμεση χειραγώγηση εντολών, μη ασφαλής χρήση εργαλείων, εξαγωγή δεδομένων μέσω του περιβάλλοντος και κακή χρήση μοντέλων μέσω αυτοματοποιημένων ροών εργασίας. OWASP Top 10 για εφαρμογές LLM NCSC για την τεχνητή νοημοσύνη και την κυβερνοασφάλεια
Οι προγραμματιστές είναι υπεύθυνοι για την ασφάλεια ολόκληρου του συστήματος, όχι μόνο της διεπαφής. Οδηγίες ασφαλούς τεχνητής νοημοσύνης του NCSC
Οι βασικές αρμοδιότητες εδώ περιλαμβάνουν:
-
Απολύμανση μη αξιόπιστων δεδομένων εισόδου OWASP Top 10 για εφαρμογές LLM
-
περιορίζοντας ποια εργαλεία μπορεί να καλέσει το μοντέλο ως OWASP Top 10 για εφαρμογές LLM
-
Περιορισμός πρόσβασης σε αρχεία και δίκτυο Οδηγίες ασφαλούς τεχνητής νοημοσύνης του NCSC
-
Σαφής διαχωρισμός των δικαιωμάτων
-
παρακολούθηση προτύπων κατάχρησης NCSC ασφαλείς οδηγίες τεχνητής νοημοσύνης
-
δαπανηρές ή επικίνδυνες ενέργειες που περιορίζουν τον ρυθμό OWASP Top 10 για εφαρμογές LLM
-
δοκιμή αντιπαραθετικών προτροπών OWASP Top 10 για εφαρμογές LLM
-
δημιουργία ασφαλών εφεδρικών λύσεων όταν οι οδηγίες έρχονται σε σύγκρουση με τις αρχές της τεχνητής νοημοσύνης του ΟΟΣΑ
Μια δυσάρεστη αλήθεια είναι ότι οι χρήστες - και οι εισβολείς - σίγουρα θα δοκιμάσουν πράγματα που οι προγραμματιστές δεν περίμεναν. Κάποιοι από περιέργεια, κάποιοι από κακία, κάποιοι επειδή έκαναν λάθος κλικ στις 2 π.μ. Συμβαίνει.
Η ασφάλεια για την παραγωγική Τεχνητή Νοημοσύνη μοιάζει λιγότερο με την κατασκευή ενός τείχους και περισσότερο με τη διαχείριση ενός πολύ ομιλητικού φύλακα της πύλης που μερικές φορές ξεγελιέται από φράσεις.
Η διαφάνεια και η συναίνεση των χρηστών έχουν μεγαλύτερη σημασία από την εντυπωσιακή εμπειρία χρήστη 🗣️
Όταν οι χρήστες αλληλεπιδρούν με την Τεχνητή Νοημοσύνη, θα πρέπει να το γνωρίζουν. Αρχών Τεχνητής Νοημοσύνης του ΟΟΣΑ σχετικά με τη σήμανση και την επισήμανση περιεχομένου που δημιουργείται από Τεχνητή Νοημοσύνη
Όχι αόριστα. Όχι θαμμένο σε όρους. Σαφώς.
Ένα βασικό μέρος της ευθύνης των προγραμματιστών που χρησιμοποιούν Generative AI είναι να διασφαλίζουν ότι οι χρήστες κατανοούν:
-
όταν χρησιμοποιείται η Τεχνητή Νοημοσύνη Αρχές Τεχνητής Νοημοσύνης του ΟΟΣΑ
-
Τι μπορεί και τι δεν μπορεί να κάνει η Τεχνητή Νοημοσύνη Αρχές Τεχνητής Νοημοσύνης του ΟΟΣΑ
-
εάν τα αποτελέσματα εξετάζονται από ανθρώπους Αρχές Τεχνητής Νοημοσύνης του ΟΟΣΑ
-
πώς επεξεργάζονται τα δεδομένα τους Οι οκτώ ερωτήσεις του ICO για την γενετική τεχνητή νοημοσύνη
-
τι επίπεδο εμπιστοσύνης θα πρέπει να έχουν στο NIST AI RMF;
-
Πώς να αναφέρετε προβλήματα ή να προσφεύγετε σε αποφάσεις σχετικά με την τεχνητή νοημοσύνη Αρχές του ΟΟΣΑ NIST AI RMF
Η διαφάνεια δεν έχει να κάνει με τον εκφοβισμό των χρηστών. Έχει να κάνει με τον σεβασμό τους.
Η καλή διαφάνεια μπορεί να περιλαμβάνει:
-
εξηγήσεις σε απλή γλώσσα Αρχές Τεχνητής Νοημοσύνης του ΟΟΣΑ
-
ορατό ιστορικό επεξεργασίας όπου είναι σχετικό
-
επιλογές για την απενεργοποίηση των λειτουργιών AI
-
κλιμάκωση σε άνθρωπο όταν χρειάζεται Αρχές Τεχνητής Νοημοσύνης του ΟΟΣΑ
-
συνοπτικές προειδοποιήσεις για εργασίες υψηλού κινδύνου Επισκόπηση του νόμου περί τεχνητής νοημοσύνης της Ευρωπαϊκής Επιτροπής
Πολλές ομάδες προϊόντων ανησυχούν ότι η ειλικρίνεια θα κάνει τη λειτουργία να φαίνεται λιγότερο μαγική. Ίσως. Αλλά η ψευδής βεβαιότητα είναι χειρότερη. Μια ομαλή διεπαφή που κρύβει τον κίνδυνο είναι ουσιαστικά μια στιλβωμένη σύγχυση.
Οι προγραμματιστές παραμένουν υπεύθυνοι - ακόμα και όταν το μοντέλο «αποφασίζει» 👀
Αυτό το κομμάτι έχει μεγάλη σημασία. Η ευθύνη δεν μπορεί να ανατεθεί σε εξωτερικούς συνεργάτες στον προμηθευτή του μοντέλου, στην κάρτα μοντέλου, στο πρότυπο προτροπής ή στη μυστηριώδη ατμόσφαιρα της μηχανικής μάθησης. Αρχές Τεχνητής Νοημοσύνης του ΟΟΣΑ , NIST, AI, RMF
Οι προγραμματιστές εξακολουθούν να είναι υπόλογοι. Αρχές Τεχνητής Νοημοσύνης του ΟΟΣΑ
Αυτό σημαίνει ότι κάποιος στην ομάδα θα πρέπει να κατέχει:
-
επιλογή μοντέλου NIST AI RMF
-
πρότυπα δοκιμών NIST GenAI Profile
-
Κριτήρια έκδοσης Προφίλ NIST GenAI
-
Αντιμετώπιση περιστατικών Οδηγίες ασφαλούς τεχνητής νοημοσύνης του NCSC
-
διαχείριση παραπόνων χρηστών NIST AI RMF
-
διαδικασίες κατάργησης Αρχές Τεχνητής Νοημοσύνης του ΟΟΣΑ
-
Παρακολούθηση αλλαγών Αρχές Τεχνητής Νοημοσύνης του ΟΟΣΑ
-
τεκμηρίωση Αρχές Τεχνητής Νοημοσύνης του ΟΟΣΑ
Θα πρέπει να υπάρχουν σαφείς απαντήσεις σε ερωτήματα όπως:
-
Ποιος εγκρίνει την ανάπτυξη; Προφίλ NIST GenAI
-
Ποιος εξετάζει περιστατικά επιβλαβούς εξόδου; Προφίλ NIST GenAI
-
Ποιος μπορεί να απενεργοποιήσει τη λειτουργία; Αρχές Τεχνητής Νοημοσύνης του ΟΟΣΑ
-
Ποιος παρακολουθεί τις παλινδρομήσεις; NIST AI RMF
-
Ποιος επικοινωνεί με τους χρήστες όταν κάτι παρουσιάζει σφάλμα; Αρχές Τεχνητής Νοημοσύνης του ΟΟΣΑ
Χωρίς ανάληψη ευθύνης, η ευθύνη μετατρέπεται σε ομίχλη. Όλοι υποθέτουν ότι κάποιος άλλος την χειρίζεται... και μετά κανείς δεν την χειρίζεται.
Αυτό το μοτίβο είναι στην πραγματικότητα παλαιότερο από την Τεχνητή Νοημοσύνη. Η Τεχνητή Νοημοσύνη απλώς την κάνει πιο επικίνδυνη.
Οι υπεύθυνοι προγραμματιστές κατασκευάζουν για τη διόρθωση, όχι για την τελειότητα 🔄
Να η μικρή ανατροπή σε όλα αυτά: η υπεύθυνη ανάπτυξη τεχνητής νοημοσύνης δεν έχει να κάνει με το να προσποιούμαστε ότι το σύστημα θα είναι τέλειο. Έχει να κάνει με το να υποθέτουμε ότι θα αποτύχει με κάποιο τρόπο και να σχεδιάζουμε γύρω από αυτή την πραγματικότητα. NIST AI RMF
Αυτό σημαίνει κατασκευή προϊόντων που είναι:
-
ελέγξιμες αρχές τεχνητής νοημοσύνης του ΟΟΣΑ
-
οι αποφάσεις και τα αποτελέσματα μπορούν να αναθεωρηθούν αργότερα
-
-
διακοπτόμενες αρχές τεχνητής νοημοσύνης του ΟΟΣΑ
-
οι άνθρωποι μπορούν να σταματήσουν ή να παρακάμψουν την κακή συμπεριφορά
-
-
ανακτήσιμες αρχές τεχνητής νοημοσύνης του ΟΟΣΑ
-
υπάρχει ένα εφεδρικό σύστημα όταν η έξοδος AI είναι λανθασμένη
-
-
Παρακολουθήσιμες οδηγίες ασφαλούς τεχνητής νοημοσύνης του NCSC NIST AI RMF
-
οι ομάδες μπορούν να εντοπίσουν μοτίβα πριν αυτά γίνουν καταστροφές
-
-
Βελτιώσιμο προφίλ NIST GenAI
-
υπάρχουν βρόχοι ανατροφοδότησης και κάποιος τους διαβάζει
-
Έτσι μοιάζει η ωριμότητα. Όχι λαμπερές επιδείξεις. Όχι άχαρα διαφημιστικά κείμενα. Πραγματικά συστήματα, με προστατευτικά κιγκλιδώματα, αρχεία καταγραφής, λογοδοσία και αρκετή ταπεινότητα για να παραδεχτούμε ότι το μηχάνημα δεν είναι μάγος. Οδηγίες για την ασφαλή τεχνητή νοημοσύνη του NCSC, Αρχές Τεχνητής Νοημοσύνης του ΟΟΣΑ
Επειδή δεν είναι. Είναι ένα εργαλείο. Ένα ισχυρό, ναι. Αλλά παρόλα αυτά ένα εργαλείο.
Τελική ανασκόπηση σχετικά με την ευθύνη των προγραμματιστών που χρησιμοποιούν την Γενετική Τεχνητή Νοημοσύνη 🌍
Ποια είναι, λοιπόν, η ευθύνη των προγραμματιστών που χρησιμοποιούν Generative AI ;
Σημαίνει να χτίζουμε με προσοχή. Να αμφισβητούμε πού βοηθάει και πού βλάπτει το σύστημα. Να προστατεύουμε το απόρρητο. Να ελέγχουμε για μεροληψία. Να επαληθεύουμε τα αποτελέσματα. Να διασφαλίζουμε τη ροή εργασίας. Να είμαστε διαφανείς με τους χρήστες. Να διατηρούμε τους ανθρώπους σε ουσιαστικό έλεγχο. Να παραμένουμε υπεύθυνοι όταν τα πράγματα πάνε στραβά. NIST AI RMF OECD Αρχές AI
Αυτό μπορεί να ακούγεται βαρύ - και είναι. Αλλά είναι επίσης αυτό που διαχωρίζει την προσεκτική ανάπτυξη από τον απερίσκεπτο αυτοματισμό.
Οι καλύτεροι προγραμματιστές που χρησιμοποιούν παραγωγική τεχνητή νοημοσύνη δεν είναι αυτοί που κάνουν το μοντέλο να εκτελεί τα περισσότερα κόλπα. Είναι αυτοί που κατανοούν τις συνέπειες αυτών των κόλπων και σχεδιάζουν ανάλογα. Γνωρίζουν ότι η ταχύτητα έχει σημασία, αλλά η εμπιστοσύνη είναι το πραγματικό προϊόν. Παραδόξως, αυτή η παλιομοδίτικη ιδέα εξακολουθεί να ισχύει. NIST AI RMF
Τελικά, η ευθύνη δεν αποτελεί εμπόδιο στην καινοτομία. Είναι αυτό που εμποδίζει την καινοτομία να μετατραπεί σε μια ακριβή, ταραχώδη εξάπλωση με μια στιλβωμένη διεπαφή και ένα πρόβλημα εμπιστοσύνης 😬✨
Και ίσως αυτή να είναι η πιο απλή εκδοχή του.
Χτίστε με τόλμη, σίγουρα - αλλά χτίστε σαν να επηρεάζονται οι άνθρωποι, επειδή επηρεάζονται. Αρχές Τεχνητής Νοημοσύνης του ΟΟΣΑ
Συχνές ερωτήσεις
Ποια είναι η ευθύνη των προγραμματιστών που χρησιμοποιούν την παραγωγική τεχνητή νοημοσύνη στην πράξη;
Η ευθύνη των προγραμματιστών που χρησιμοποιούν παραγωγική τεχνητή νοημοσύνη εκτείνεται πολύ πέρα από την ταχεία διάθεση λειτουργιών. Περιλαμβάνει την επιλογή της σωστής περίπτωσης χρήσης, τον έλεγχο των αποτελεσμάτων, την προστασία του απορρήτου, τη μείωση της επιβλαβούς συμπεριφοράς και τη διευκόλυνση των χρηστών να κατανοήσουν το σύστημα. Στην πράξη, οι προγραμματιστές παραμένουν υπεύθυνοι για τον τρόπο με τον οποίο το εργαλείο σχεδιάζεται, παρακολουθείται, διορθώνεται και διαχειρίζεται όταν αποτυγχάνει.
Γιατί η γενετική τεχνητή νοημοσύνη χρειάζεται περισσότερη ευθύνη προγραμματιστή από το κανονικό λογισμικό;
Τα παραδοσιακά σφάλματα είναι συχνά προφανή, αλλά οι γενετικές αποτυχίες της Τεχνητής Νοημοσύνης μπορεί να ακούγονται τελειοποιημένες, ενώ εξακολουθούν να είναι λανθασμένες, μεροληπτικές ή επικίνδυνες. Αυτό καθιστά τα προβλήματα πιο δύσκολο να εντοπιστούν και πιο εύκολο για τους χρήστες να τα εμπιστευτούν κατά λάθος. Οι προγραμματιστές εργάζονται με πιθανοτικά συστήματα, επομένως η ευθύνη περιλαμβάνει τον χειρισμό της αβεβαιότητας, τον περιορισμό της βλάβης και την προετοιμασία για απρόβλεπτα αποτελέσματα πριν από την κυκλοφορία.
Πώς γνωρίζουν οι προγραμματιστές πότε δεν πρέπει να χρησιμοποιείται η γενετική τεχνητή νοημοσύνη;
Ένα συνηθισμένο σημείο εκκίνησης είναι να αναρωτηθούμε εάν η εργασία είναι ανοιχτού τύπου ή εάν είναι καλύτερο να διεκπεραιώνεται με κανόνες, αναζήτηση ή τυπική λογική λογισμικού. Οι προγραμματιστές θα πρέπει επίσης να λάβουν υπόψη πόση ζημιά θα μπορούσε να προκαλέσει μια λανθασμένη απάντηση και εάν ένας άνθρωπος μπορεί ρεαλιστικά να εξετάσει τα αποτελέσματα. Η υπεύθυνη χρήση μερικές φορές σημαίνει την απόφαση να μην χρησιμοποιηθεί καθόλου η γενετική τεχνητή νοημοσύνη.
Πώς μπορούν οι προγραμματιστές να μειώσουν τις παραισθήσεις και τις λανθασμένες απαντήσεις σε συστήματα γενετικής τεχνητής νοημοσύνης;
Η ακρίβεια πρέπει να σχεδιάζεται με βάση τα δεδομένα, όχι να θεωρείται δεδομένη. Σε πολλά συστήματα, αυτό σημαίνει γείωση των αποτελεσμάτων σε αξιόπιστες πηγές, διαχωρισμό του δημιουργημένου κειμένου από τα επαληθευμένα γεγονότα και χρήση ροών εργασίας αναθεώρησης για εργασίες υψηλότερου κινδύνου. Οι προγραμματιστές θα πρέπει επίσης να δοκιμάζουν μηνύματα που αποσκοπούν στη σύγχυση ή την παραπλάνηση του συστήματος, ειδικά σε τομείς όπως ο κώδικας, η υποστήριξη, τα οικονομικά, η εκπαίδευση και η υγειονομική περίθαλψη.
Ποια είναι η ευθύνη των προγραμματιστών που χρησιμοποιούν παραγωγική τεχνητή νοημοσύνη για την προστασία της ιδιωτικής ζωής και τα ευαίσθητα δεδομένα;
Η ευθύνη των προγραμματιστών που χρησιμοποιούν γενετική τεχνητή νοημοσύνη περιλαμβάνει την ελαχιστοποίηση των δεδομένων που εισέρχονται στο μοντέλο και την αντιμετώπιση των μηνυμάτων προτροπής, των αρχείων καταγραφής και των εξόδων ως ευαίσθητων. Οι προγραμματιστές θα πρέπει να αφαιρούν τα αναγνωριστικά όπου είναι δυνατόν, να περιορίζουν τη διατήρηση, να ελέγχουν την πρόσβαση και να εξετάζουν προσεκτικά τις ρυθμίσεις των προμηθευτών. Οι χρήστες θα πρέπει επίσης να είναι σε θέση να κατανοούν τον τρόπο χειρισμού των δεδομένων τους, αντί να ανακαλύπτουν τους κινδύνους αργότερα.
Πώς θα πρέπει οι προγραμματιστές να χειρίζονται την προκατάληψη και τη δικαιοσύνη στα αποτελέσματα της γενετικής τεχνητής νοημοσύνης;
Η εργασία με βάση τις προκαταλήψεις απαιτεί ενεργή αξιολόγηση, όχι υποθέσεις. Μια πρακτική προσέγγιση είναι να ελέγχονται οι προτροπές σε διαφορετικά δημογραφικά στοιχεία, γλώσσες και περιβάλλοντα και στη συνέχεια να εξετάζονται τα αποτελέσματα για στερεότυπα, αποκλεισμούς ή άνισα πρότυπα αποτυχίας. Οι προγραμματιστές θα πρέπει επίσης να δημιουργούν τρόπους για να αναφέρουν οι χρήστες ή οι ομάδες επιβλαβή συμπεριφορά, επειδή ένα σύστημα μπορεί να φαίνεται συνολικά ισχυρό, ενώ εξακολουθεί να αποτυγχάνει σε ορισμένες ομάδες με συνέπεια.
Ποιους κινδύνους ασφαλείας πρέπει να λάβουν υπόψη οι προγραμματιστές με την γενετική τεχνητή νοημοσύνη;
Η γενετική τεχνητή νοημοσύνη εισάγει νέες επιφάνειες επίθεσης, όπως άμεση έγχυση, μη ασφαλή χρήση εργαλείων, διαρροή δεδομένων μέσω περιβάλλοντος και κατάχρηση αυτοματοποιημένων ενεργειών. Οι προγραμματιστές θα πρέπει να απολυμαίνουν την μη αξιόπιστη είσοδο, να περιορίζουν τα δικαιώματα των εργαλείων, να περιορίζουν την πρόσβαση σε αρχεία και δίκτυο και να παρακολουθούν για μοτίβα κακής χρήσης. Η ασφάλεια δεν αφορά μόνο τη διεπαφή. Ισχύει για ολόκληρη τη ροή εργασίας γύρω από το μοντέλο.
Γιατί είναι σημαντική η διαφάνεια κατά την κατασκευή με παραγωγική τεχνητή νοημοσύνη;
Οι χρήστες θα πρέπει να γνωρίζουν με σαφήνεια πότε εμπλέκεται η Τεχνητή Νοημοσύνη, τι μπορεί να κάνει και πού βρίσκονται τα όριά της. Η καλή διαφάνεια μπορεί να περιλαμβάνει ετικέτες όπως «παράγεται από ή υποβοηθείται από την Τεχνητή Νοημοσύνη», απλές εξηγήσεις και σαφείς διαδρομές για ανθρώπινη υποστήριξη. Αυτού του είδους η ειλικρίνεια δεν αποδυναμώνει το προϊόν. Βοηθά τους χρήστες να βαθμονομήσουν την εμπιστοσύνη και να λάβουν καλύτερες αποφάσεις.
Ποιος είναι υπεύθυνος όταν μια λειτουργία παραγωγικής τεχνητής νοημοσύνης προκαλεί βλάβη ή κάνει κάτι λάθος;
Οι προγραμματιστές και οι ομάδες προϊόντων εξακολουθούν να έχουν την ευθύνη για το αποτέλεσμα, ακόμη και όταν το μοντέλο παράγει την απάντηση. Αυτό σημαίνει ότι θα πρέπει να υπάρχει σαφής ευθύνη για την έγκριση ανάπτυξης, τον χειρισμό συμβάντων, την επαναφορά, την παρακολούθηση και την επικοινωνία με τους χρήστες. Η φράση «το μοντέλο αποφάσισε» δεν είναι αρκετή, επειδή η λογοδοσία πρέπει να παραμείνει στα άτομα που σχεδίασαν και κυκλοφόρησαν το σύστημα.
Πώς μοιάζει η υπεύθυνη ανάπτυξη γενετικής τεχνητής νοημοσύνης μετά την κυκλοφορία της;
Η υπεύθυνη ανάπτυξη συνεχίζεται και μετά την κυκλοφορία μέσω παρακολούθησης, ανατροφοδότησης, αναθεώρησης και διόρθωσης. Τα ισχυρά συστήματα είναι ελεγχόμενα, διακοπτόμενα, ανακτήσιμα και σχεδιασμένα με εφεδρικές διαδρομές όταν η Τεχνητή Νοημοσύνη αποτύχει. Ο στόχος δεν είναι η τελειότητα. Είναι η δημιουργία κάτι που μπορεί να εξεταστεί, να βελτιωθεί και να προσαρμοστεί με ασφάλεια καθώς εμφανίζονται προβλήματα στον πραγματικό κόσμο.
Αναφορές
-
Εθνικό Ινστιτούτο Προτύπων και Τεχνολογίας (NIST) - Προφίλ NIST GenAI - nvlpubs.nist.gov
-
OWASP - OWASP Top 10 για Αιτήσεις LLM - owasp.org
-
Γραφείο Επιτρόπου Πληροφοριών (ICO) - Οκτώ ερωτήσεις του ICO για την παραγωγική τεχνητή νοημοσύνη - ico.org.uk