EY: Η Πράξη της Ευρωπαϊκής Ένωσης για την Τεχνητή Νοημοσύνη: Tι πρέπει να γνωρίζουν οι επιχειρήσεις στην Ελλάδα

 

Η Ευρωπαϊκή Ένωση (ΕΕ) πραγματοποίησε ένα σημαντικό βήμα για την εποπτεία των συστημάτων τεχνητής νοημοσύνης (Artificial Intelligence – AI), με τη δημοσίευση του Κανονισμού (ΕΕ) 2024/1689 για τη θέσπιση εναρμονισμένων κανόνων σχετικά με την AI (EU AI Act), στις 12 Ιουλίου 2024, η οποία τίθεται σε άμεση εφαρμογή σε όλα τα κράτη μέλη. Η ΕΕ πρωτοστατεί σε αυτό το θέμα, διατηρώντας μια νομοθετική ισορροπία μεταξύ, αφενός, της ελευθερίας για έρευνα, ανάπτυξη και χρήση συστημάτων AI από τις εταιρείες και τους οργανισμούς και, αφετέρου, της προάσπισης της ασφάλειας, των θεμελιωδών δικαιωμάτων, της δημοκρατίας και του περιβάλλοντος από τους κινδύνους της τεχνητής νοημοσύνης.

 

Με αφορμή τη δημοσίευση του Κανονισμού, το Τμήμα Συμβουλευτικών Υπηρεσιών της EY Ελλάδος και, ειδικότερα, οι ομάδες Διαχείρισης και Ποσοτικοποίησης Κινδύνων, και Τεχνητής Νοημοσύνης / Ανάλυσης Δεδομένων του Κέντρου Αριστείας AI & Data της EY στην Ελλάδα, αναλύουν τα βασικά στοιχεία της EU AI Act και παραθέτουν προτάσεις για το πώς οι ελληνικές επιχειρήσεις θα ανταποκριθούν στις απαιτήσεις της.

 

Στόχος της Πράξης και ορισμός συστημάτων AI

 

Η EE, μέσω της EU AI Act, έχει ως βασικό στόχο τον έλεγχο της ασφάλειας και της αξιοπιστίας των συστημάτων τεχνητής νοημοσύνης τα οποία λειτουργούν εντός της επικράτειάς της (ανεξάρτητα από τη χώρα ανάπτυξής τους), προστατεύοντας, παράλληλα, τα θεμελιώδη δικαιώματα των πολιτών της. Με την εφαρμογή της Πράξης, οι επιχειρήσεις θα πρέπει να εναρμονιστούν με μια σειρά από απαιτήσεις και πρότυπα, εξασφαλίζοντας ότι τα συστήματα AI τα οποία αναπτύσσουν ή λειτουργούν, είναι ασφαλή και δίκαια για τους χρήστες.

 

Σύμφωνα με την EU AI Act, ένα σύστημα AI ορίζεται ως ένα λογισμικό που αναπτύσσεται με ορισμένες τεχνικές και προσεγγίσεις και μπορεί, για ένα δεδομένο σύνολο καθορισμένων στόχων, με έναν – έστω και ελάχιστο – βαθμό αυτονομίας, να παράγει αποτελέσματα όπως προτάσεις, εκτιμήσεις, προβλέψεις, αποφάσεις ή άλλες ενέργειες που επηρεάζουν τα περιβάλλοντα με τα οποία αλληλοεπιδρά.

 

Είναι σαφές ότι ο ορισμός των συστημάτων ΑΙ καλύπτει ένα ευρύ φάσμα τεχνικών και προσεγγίσεων στον χώρο της τεχνολογίας αυτής, όπως, η μηχανική μάθηση (machine learning), η βαθιά μάθηση (deep learning), η επεξεργασία φυσικής γλώσσας (natural language processing) και τα συστήματα AI γενικού σκοπού (general purpose ΑΙ systems).

 

Διαβάθμιση συστημάτων AI με βάση τον κίνδυνο, και εποπτεία

 

Για την προώθηση της καινοτομίας, παράλληλα με την εμπιστοσύνη στα συστήματα ΑΙ, η ΕΕ διαβαθμίζει τα συστήματα αυτά σε επίπεδα κινδύνου με βάση τον δυνητικό αντίκτυπο στα δικαιώματα και τις ελευθερίες των ανθρώπων, εισάγοντας διαφορετικές απαιτήσεις για όλους τους εμπλεκόμενους φορείς, όπως όσοι αναπτύσσουν συστήματα ΑΙ και όσοι χρησιμοποιούν τέτοια συστήματα.

 

Διαφορετικές απαιτήσεις και χρονικά πλαίσια εναρμόνισης, ορίζονται για τις παρακάτω κατηγορίες συστημάτων:

 

  • Μη αποδεκτού κινδύνου συστήματα AI: Περιλαμβάνουν, για παράδειγμα, συστήματα τα οποία χρησιμοποιούνται για την αξιολόγηση ή την ταξινόμηση φυσικών προσώπων με βάση την κοινωνική συμπεριφορά ή την προσωπικότητά τους, ή συστήματα τα οποία εκμεταλλεύονται συγκεκριμένα χαρακτηριστικά ομάδων φυσικών προσώπων. H χρήση των συστημάτων αυτών είναι απαγορευμένη. Το χρονικό πλαίσιο απαγορεύσεων για τα συστήματα μη αποδεκτού κινδύνου έχει οριστεί στους 6 μήνες μετά την έναρξη ισχύος της Πράξης.

 

  • Υψηλού κινδύνου συστήματα ΑΙ: Για τα συστήματα αυτά προβλέπονται πολλαπλές απαιτήσεις πριν από την έναρξη χρήσης τους, και σε συνεχή βάση. Οι βασικές τους απαιτήσεις είναι οι ακόλουθες:
    • Εισαγωγή συστήματος διαχείρισης κινδύνων, το οποίο θα χρησιμοποιείται καθ’ όλη τη διάρκεια του κύκλου ζωής του συστήματος
    • Διακυβέρνηση και έλεγχος ποιότητας δεδομένων για την εκπαίδευση, επικύρωση και λειτουργία του συστήματος
    • Αξιολόγηση ακρίβειας, επάρκειας και αξιοπιστίας των αποτελεσμάτων
    • Ύπαρξη διαφάνειας, πληροφόρησης, ασφάλειας και ακεραιότητας των χρηστών
    • Ανθρώπινη εποπτεία για τον έλεγχο λειτουργίας του συστήματος
    • Ολοκληρωμένη τεχνική τεκμηρίωση

 

Η αξιολόγηση των συστημάτων υψηλού κινδύνου αναμένεται 24-36 μήνες μετά την έναρξη ισχύος της Πράξης, ανάλογα με την κατηγορία του συστήματος.

 

  • Χαμηλού κινδύνου συστήματα AI: Περιλαμβάνουν συστήματα που προορίζονται για άμεση αλληλεπίδραση με φυσικά πρόσωπα και υπόκεινται κυρίως σε απαιτήσεις διαφάνειας. Οι απαιτήσεις για τα συστήματα χαμηλού κινδύνου, θα τεθούν σε εφαρμογή 24 μήνες μετά την έναρξη ισχύος της πράξης.

 

  • Συστήματα AI γενικού σκοπού: Αφορούν συστήματα τα οποία είναι ικανά να εκτελούν ένα ευρύ φάσμα εργασιών και δεν είναι περιορισμένα σε μία συγκεκριμένη λειτουργία ή εφαρμογή. Οι απαιτήσεις για τα συστήματα αυτά, διαφοροποιούνται με βάση τον συστημικό τους κίνδυνο, ενώ αναμένεται να τεθούν σε εφαρμογή 12 μήνες μετά την έναρξη ισχύος της Πράξης.

 

Η EU AI Act προβλέπει τη σύσταση ειδικών εποπτικών αρχών σε κάθε κράτος μέλος, οι οποίες θα έχουν την ευθύνη να ελέγχουν τη συμμόρφωση των επιχειρήσεων με τις απαιτήσεις της, καθώς και να επιβάλλουν τυχόν κυρώσεις σε περιπτώσεις αποκλίσεων. Ενδεικτικά, οι ποινές μη συμμόρφωσης ενός οργανισμού, σε περίπτωση που θέτει σε λειτουργία συστήματα AI μη αποδεκτού κινδύνου, δύνανται να φτάσουν μέχρι και το 7% του κύκλου εργασιών του.

 

Αναφερόμενος στην EU AI Act, ο Δρ. Λάζαρος Πολυμενάκος, Εταίρος στο Τμήμα Συμβουλευτικών Υπηρεσιών της EY Ελλάδος και Επικεφαλής Συμβουλευτικών Υπηρεσιών AI στην περιοχή Ευρώπης, Μέσης Ανατολής, Ινδίας και Αφρικής (EMEIA), σημείωσε: «Η Ευρώπη κατάφερε με πολύχρονη προσπάθεια κάτι εξαιρετικό. Έχουμε επιτέλους τον πρώτο δεσμευτικό νόμο στον κόσμο της τεχνητής νοημοσύνης, για τη μείωση των κινδύνων, τη δημιουργία ευκαιριών, την καταπολέμηση των διακρίσεων, και την επίτευξη διαφάνειας. Ωστόσο, έχει απομείνει πολύς δρόμος ακόμα για να ολοκληρωθεί το κανονιστικό πλαίσιο: ενδεικτικά, χρειάζονται εφαρμοστικοί νόμοι στα κράτη μέλη, θεσμικό πλαίσιο, οργανισμοί πιστοποίησης και ελέγχου συστημάτων ΑΙ, φορείς παρακολούθησης των συστημάτων ΑΙ για παρέκκλιση από την ορθή λειτουργία και χρήση, υποδομές πειραματισμού (sandboxes), κ.ά. Οι ραγδαίες τεχνολογικές εξελίξεις, σε συνδυασμό με το εξελισσόμενο κανονιστικό πλαίσιο, θα φέρουν καταιγιστικές αλλαγές, οι οποίες δεν αφήνουν περιθώρια για εφησυχασμό, απαιτώντας πλήρη προσοχή από όλους μας. Για αυτό, στην ΕΥ, εργαζόμαστε πάνω στο πλαίσιο υπεύθυνης χρήσης της τεχνητής νοημοσύνης εδώ και αρκετά χρόνια και έχουμε αναπτύξει μια μεθοδολογία που περιλαμβάνει απαιτήσεις και εργαλεία, όπως ένας Δείκτης Εμπιστοσύνης για την αξιολόγηση μοντέλων και τη συμμόρφωση στα κανονιστικά πλαίσια. Έτσι, πιστεύουμε ότι μπορούμε να βοηθήσουμε τους πελάτες μας στην υιοθέτηση και την καλύτερη αξιοποίηση της τεχνητής νοημοσύνης, θέτοντας στο επίκεντρο τον άνθρωπο, την καινοτομία και την τεχνολογία».

 

Επιπρόσθετα, ο κ. Γιώργος Σαραντόπουλος, Εταίρος στο Τμήμα Συμβουλευτικών Υπηρεσιών της EY Ελλάδος, δήλωσε «Οι ελληνικές επιχειρήσεις πρέπει να σχεδιάσουν και να εφαρμόσουν αρχές για την υπεύθυνη χρήση των συστημάτων AI, με διττό στόχο. Αφενός, να εξασφαλίσουν τη συμμόρφωση με τις απαιτήσεις της EU AI Act, και, αφετέρου, να δημιουργήσουν επιπρόσθετη αξία για καλύτερη λήψη αποφάσεων με παράλληλη ενθάρρυνση της αυξανόμενης ανάπτυξης και χρήσης εφαρμογών τεχνητής νοημοσύνης, που θα ωφελούν το κοινωνικό σύνολο και θα συνάδουν με τις ευρωπαϊκές αξίες του σεβασμού και της προστασίας των ατομικών δικαιωμάτων. Για την επίτευξη των στόχων αυτών, στην ΕΥ, προτείνουμε ένα συγκεκριμένο πλαίσιο δράσεων, καθώς και λύσεις προσαρμοσμένες στις ιδιαιτερότητες των επιχειρήσεων, για την βέλτιστη υιοθέτηση και την υπεύθυνη χρήση της τεχνητής νοημοσύνης».

 

 


 

Η προσέγγιση της ΕΥ

 

Η EY αναγνωρίζει τη σημασία της εναρμόνισης με τις απαιτήσεις της EU AI Act και υποστηρίζει τις επιχειρήσεις, ώστε όχι μόνο να προσαρμοστούν στις νέες απαιτήσεις, αλλά και να δημιουργήσουν αξία μέσω των πλεονεκτημάτων που προσφέρει ένα ευρύτερο πλαίσιο υπεύθυνης χρήσης της τεχνητής νοημοσύνης (Responsible AI framework).

 

Καθώς η ΑΙ ήδη βρίσκεται στη ζωή μας και αναμένεται ότι θα μετασχηματίσει την καθημερινή εργασία και το είδος – αλλά και τον τρόπο παροχής – των υπηρεσιών κάθε επιχείρησης, η ΕΥ έχει ξεκινήσει τα τελευταία χρόνια μια συγκροτημένη προσπάθεια γύρω από την τεχνητή νοημοσύνη, σε παγκόσμιο επίπεδο, καθώς και στη χώρα μας.

 

Ειδικότερα, στην Ελλάδα, ήδη από το 2013, λειτουργεί το Κέντρο Αριστείας της EY για AI & Data στην Αθήνα, που απασχολεί σήμερα περισσότερους από 300 επιστήμονες, μηχανικούς και επαγγελματίες, συνολικά – με πάνω από 100 να εξειδικεύονται αποκλειστικά σε υπηρεσίες και λύσεις που σχετίζονται με την τεχνητή νοημοσύνη – υποστηρίζοντας εταιρείες και οργανισμούς σε περισσότερες από 30 χώρες στην περιοχή της Ευρώπης, Μέσης Ανατολής, Ινδίας και Αφρικής (EMEIA). Παράλληλα, οι ομάδες Διαχείρισης και Ποσοτικοποίησης Κινδύνων του Τμήματος Συμβουλευτικών Υπηρεσιών της EY Ελλάδος, αποτελούνται από περισσότερους από 200 επαγγελματίες, που υποστηρίζουν οργανισμούς και επιχειρήσεις σε πληθώρα κλάδων στο ταξίδι του μετασχηματισμού τους, ώστε με τη χρήση ψηφιακών τεχνολογιών, να εντοπίσουν, να ποσοτικοποιήσουν και να διαχειριστούν πιθανούς κινδύνους και να ενισχύσουν την ανθεκτικότητά τους, αλλά και την εμπιστοσύνη των ενδιαφερόμενων μερών τους.

 

Σε αυτό το πλαίσιο, με βάση την τεχνογνωσία και εμπειρία των ομάδων της, η ΕΥ προτείνει στις επιχειρήσεις να προσεγγίσουν το ζήτημα της αξιόπιστης, επικυρωμένης και υπεύθυνης χρήσης της AI, μέσα από ένα σχέδιο δράσεων που αποτελείται από τρεις κύριες φάσεις:

 

  1. Τη δημιουργία πλαισίων διαχείρισης και διακυβέρνησης των συστημάτων AI, τα οποία περιλαμβάνουν:
    • την καταγραφή των συστημάτων AI, τον ορισμό της σημαντικότητας και της διαβάθμισης κινδύνου με βάση την EU AI Act
    • τον καθορισμό προτύπων, διαδικασιών, ρόλων και αρμοδιοτήτων για την ανάπτυξη, επικύρωση και λειτουργία των συστημάτων AI
    • τη δημιουργία νέου πλαισίου για την αξιολόγηση των απαιτήσεων για την υπεύθυνη χρήση των συστημάτων AI, σε εναρμόνιση με την EU AI Act.
  2. Τη λειτουργική ενσωμάτωση των πλαισίων για τα συστήματα AI, η οποία περιλαμβάνει:
    • τη λειτουργία πλαισίων διαχείρισης και διακυβέρνησης της τεχνητής νοημοσύνης σε όλα τα επίπεδα (άνθρωποι, αξιολόγηση μέσω προτύπων και διαδικασιών)
    • την αξιολόγηση των συστημάτων AI στις διάφορες διαστάσεις της τεχνητής νοημοσύνης, για την υπεύθυνη χρήση τους
    • τον καταρτισμό ενός πλάνου δράσεων για την αντιμετώπιση ελλείψεων που ενδεχομένως εντοπίζονται, ως αποτέλεσμα της αξιολόγησης για την υπεύθυνη χρήση των συστημάτων AI
  3. Την επέκταση των πλαισίων και των αρχών λειτουργίας σε όλο το εύρος του οργανισμού και τη συνεχή παρακολούθηση και αξιολόγηση, και μέσω τεχνολογικών λύσεων, για την εφαρμογή των πλαισίων και τη δημιουργία αναφορών.

 

Η βασική προσέγγιση της ΕΥ για την αξιολόγηση της υπεύθυνης χρήσης των συστημάτων AI είναι ο Δείκτης EY.ai Confidence Index (Δείκτης Εμπιστοσύνης), ο οποίος αποτελεί μέρος ενός ευρύτερου οικοσυστήματος εφαρμογών με βάση την τεχνογνωσία της ΕΥ αναφορικά με την προηγμένη ανάπτυξη και υπεύθυνη χρήση της AI.

 

Ο Δείκτης Εμπιστοσύνης αξιολογεί οκτώ κύριες διαστάσεις που τεκμηριώνουν την υπεύθυνη χρήση της τεχνητής νοημοσύνης: τη διαφάνεια, την αξιοπιστία και μεροληψία, την ευθύνη, την επεξηγησιμότητα, την αξιοπιστία, την ασφάλεια, τη βιωσιμότητα, και την προστασία προσωπικών δεδομένων.

 

Η προσέγγιση μέσω του Δείκτη Εμπιστοσύνης, δημιουργεί τα ακόλουθα πλεονεκτήματα για τις επιχειρήσεις:

 

  • Βασίζεται σε μία ολιστική αξιολόγηση, πλήρως εναρμονισμένη με την EU AI Act, για την εμπιστοσύνη στα δεδομένα, στις τεχνικές ανάπτυξης και εφαρμογής και στις διαδικασίες που συνθέτουν τα συστήματα AI.

 

  • Συνδυάζει ποσοτικές μετρήσεις με ποιοτικές αξιολογήσεις, επιτρέποντας στους χρήστες να εκτιμήσουν τον επιχειρηματικό αντίκτυπο και το επίπεδο εμπιστοσύνης σε κάθε μία από τις οκτώ διαστάσεις, αλλά και συνολικά.

 

  • Παράγει αποτελέσματα αξιολόγησης τα οποία είναι εξηγήσιμα, καθώς επιτρέπει να γίνουν κατανοητές οι ενδεχόμενες ελλείψεις και μέσω των ολοκληρωμένων αναφορών της λύσης.

 

  • Είναι προσαρμόσιμη, γιατί μπορεί να εντάξει το πλαίσιο και τις ιδιαιτερότητες του κάθε συστήματος AI, για παράδειγμα με βάση τον τομέα δραστηριότητας των επιχειρήσεων.

 

  • Δημιουργεί ένα επαρκές επίπεδο επεξηγησιμότητας, προκειμένου να υπόκειται, ανά πάσα χρονική στιγμή, σε έλεγχο.

 

Μπορείτε να μάθετε περισσότερα για το πλαίσιο τεχνητής νοημοσύνης και την πλατφόρμα EY.ai της EY, επισκεπτόμενοι το ey.ai

 

Πηγή άρθρου και εικόνας: Δελτίο Τύπου / Newsletter

<BACK

ΠΕΡΗΦΑΝΟΙ ΓΙΑ ΤΑ ΜΕΛΗ & ΤΙΣ ΣΥΝΕΡΓΑΣΙΕΣ ΜΑΣ