Το Facebook αποκάλυψε την αξιοποίηση τεχνολογιών τεχνητής νοημοσύνης και machine-learning για την προληπτική αφαίρεση κακόβουλου περιεχομένου, που σχετίζεται με ρητορική μίσους και τρομοκρατικά βίντεο.
Ο Guy Rosen, Vice President for product management στο social δίκτυο, δήλωσε σε blog post ότι ο κολοσσός των κοινωνικών μέσων έχει ασχοληθεί με την ανάλυση επιβεβαιωμένων παραδειγμάτων κακού περιεχομένου, προκειμένου να βοηθήσει στη διδασκαλία των προγραμμάτων λογισμικού να ταυτοποιούν ενοχλητικό περιεχόμενο, πριν αυτό αναφερθεί.
"Με την εξέλιξη της τεχνολογίας, συμπεριλαμβανομένης αυτής στην τεχνητή νοημοσύνη, στο machine learning και στο computer vision, τώρα μπορούμε: να μετακινήσουμε ταχύτερα το κακό περιεχόμενο πριν καν αυτό αναφερθεί, να αποκτήσουμε πρόσβαση σε μεγαλύτερο όγκο περιεχομένου και να δράσουμε προληπτικά και να αυξήσουμε τις ικανότητες της ομάδας ελέγχου, ώστε να εργαστεί σε περιπτώσεις που η ανθρώπινη τεχνογνωσία είναι απαραίτητη" σχολιάσε ο Rosen.
Ωστόσο, προειδοποίησε ότι οι εταιρείες τεχνολογίας, όπως το Facebook, απέχουν ακόμα χρόνια από το να βασίζονται εξ ολοκλήρου στην Τεχνητή Νοημοσύνη για να ανιχνεύσουν το κακό περιεχόμενο.
"Η τεχνητή νοημοσύνη, για παράδειγμα, είναι πολύ ελπιδοφόρα, αλλά είμαστε ακόμα χρόνια μακριά από το να είναι αποτελεσματική για όλα τα είδη κακού περιεχομένου, επειδή το πλαίσιο είναι τόσο σημαντικό. Αυτός είναι ο λόγος για τον οποίο έχουμε ανθρώπους που εξακολουθούν να εξετάζουν αναφορές" έγραψε.
Στην πραγματικότητα, η δηλωμένη αποστολή του Facebook για την καταπολέμηση της ρητορικής μίσους αντιμετώπισε προβλήματα. Η πλατφόρμα ανακοίνωσε πρόσφατα ότι δοκιμάζει ένα κουμπί που θα επιτρέπει στους χρήστες να αναφέρουν αναρτήσεις που περιέχουν ομιλία μίσους - αλλά ένα σφάλμα προκάλεσε σε πολλούς χρήστες να δουν το κουμπί "report hate speech", σε μη απειλητικές αναρτήσεις.