Το Friendly AI είναι ένας όρος που χρησιμοποιείται από ερευνητές της Τεχνητής Νοημοσύνης (AI) για να αναφέρεται σε συστήματα τεχνητής νοημοσύνης που, γενικά, εκτελούν ενέργειες που είναι χρήσιμες για την ανθρωπότητα και όχι ουδέτερες ή επιβλαβείς. Αυτό δεν σημαίνει τυφλή υπακοή – αντίθετα, ο όρος χρησιμοποιείται για να περιγράψει συστήματα τεχνητής νοημοσύνης που είναι φιλικά επειδή θέλουν να είναι, όχι λόγω οποιασδήποτε εξωτερικής επιβαλλόμενης δύναμης. Εκτός από την αναφορά σε ολοκληρωμένα συστήματα, το Friendly AI είναι επίσης το όνομα της θεωρητικής και μηχανικής πειθαρχίας που θα χρησιμοποιηθεί για τη δημιουργία τέτοιων συστημάτων με επιτυχία.
Ο όρος “Friendly AI” προέρχεται από τον Eliezer Yudkowsky του Singularity Institute for Artificial Intelligence, στόχος του οποίου είναι η δημιουργία ενός Friendly AI αρκετά έξυπνου ώστε να βελτιώνει τον δικό του πηγαίο κώδικα χωρίς παρέμβαση προγραμματιστή. Η μακροχρόνια εργασία του για το θέμα, Creating Friendly AI, που δημοσιεύτηκε διαδικτυακά το 2001, είναι πιθανώς η πρώτη αυστηρή επεξεργασία του θέματος οπουδήποτε. Ο Yudkowsky επικαλείται επιχειρήματα από την εξελικτική ψυχολογία και άλλες γνωστικές επιστήμες για να υποστηρίξει την προσέγγισή του στο πρόβλημα της Friendly AI.
Η φιλική τεχνητή νοημοσύνη θεωρείται σημαντική ως ακαδημαϊκή επιστήμη επειδή οι προηγούμενες προσπάθειες να «απαντηθεί» στο πρόβλημα της απατεώνων τεχνητής νοημοσύνης γενικά επικαλούνταν αυστηρούς προγραμματικούς περιορισμούς, οι οποίοι αναπόφευκτα θα καταρρεύσουν υπό εναλλακτικές ερμηνείες, όταν η τεχνητή νοημοσύνη γίνει πιο έξυπνη από τους ανθρώπους ή απλώς όταν αποκτήσει το ικανότητα επαναπρογραμματισμού. Ο ανθρωπομορφισμός είναι επίσης ένα πρόβλημα στην τεχνητή νοημοσύνη. Επειδή η εξέλιξη δημιουργεί οργανισμούς που τείνουν να είναι εγωιστές, πολλοί στοχαστές υποθέτουν ότι κάθε τεχνητή νοημοσύνη που κατασκευάζουμε θα έχει την ίδια τάση, είτε αμέσως είτε αφού γίνει αρκετά έξυπνος.
Η εξέλιξη χτίζει οργανισμούς με εγωκεντρικά συστήματα στόχων γιατί δεν υπάρχει άλλος τρόπος. Τα αλτρουιστικά συστήματα στόχων χρειάστηκαν πολλά εκατομμύρια χρόνια για να εξελιχθούν, και το έκαναν μόνο υπό συνθήκες όπου τα μέλη της ίδιας φυλής είχαν πολλά να κερδίσουν βοηθώντας το ένα το άλλο και πολλά να χάσουν αμελώντας να το κάνουν. Αλλά αν σχεδιάζαμε ένα μυαλό από την αρχή, θα μπορούσαμε να το χτίσουμε χωρίς ένα εγωκεντρικό σύστημα στόχων. Αυτό δεν θα ήταν “περιορισμός της τεχνητής νοημοσύνης” – θα ήταν απλώς η δημιουργία μιας τεχνητής νοημοσύνης που είναι ανιδιοτελής από τη φύση της.
Η παραπάνω παρατήρηση είναι μία από τις πολλές που συμβάλλουν στον τομέα της Friendly AI, η οποία είναι εξαιρετικά νέα και χρειάζεται ακόμα πολλή δουλειά. Ορισμένοι ερευνητές τεχνητής νοημοσύνης υποστηρίζουν ότι δεν μπορούμε να προσδιορίσουμε τα σχεδιαστικά χαρακτηριστικά που είναι απαραίτητα για την εφαρμογή του Friendly AI μέχρι να έχουμε εξυπνότερα συστήματα τεχνητής νοημοσύνης για πειραματισμούς. Άλλοι υποστηρίζουν ότι μια καθαρά θεωρητική προσέγγιση δεν είναι μόνο δυνατή, αλλά και ηθικά απαραίτητη πριν ξεκινήσει μια σοβαρή προσπάθεια γενικής τεχνητής νοημοσύνης.