24NEWS.GR – Νέα24

Νέα,ειδήσεις από την Ελλάδα & τον κόσμο όλο το 24ωρο!Άμεση ενημέρωση & Ροή ειδήσεων για όλες τις εξελίξεις

2024-bruno-stoiximan

ChatGPT: Κενυάτες εργαζόμενοι πληρώνονταν 2 δολάρια την ώρα για να επισημαίνουν σοκαριστικό και παράνομο περιεχόμενο

Δεν υπάρχουν Σχόλια Share:

Επί μήνες, η εταιρεία τεχνητής νοημοσύνης Sama, με έδρα το Σαν Φρανσίσκο, συνεργαζόταν με την OpenAI, την εταιρεία πίσω από το ChatGPT, για την αναγνώριση και την επισήμανση ευαίσθητων εικόνων και κειμένων – δεδομένα που χρησιμοποιούνται για την εκπαίδευση του ChatGPT.

Όπως αναφέρει το Business Insider, τον Φεβρουάριο του 2022, η Sama – η οποία απασχολεί εργαζόμενους στην Κένυα, Ουγκάντα και Ινδία– τερμάτισε τη συνεργασία της με την OpenAI αφού ανακάλυψε ότι είχε ζητήσει και λάβει δυνητικά παράνομο περιεχόμενο για ένα έργο εκπαίδευσης τεχνητής νοημοσύνης που δεν σχετιζόταν με το ChatGPT, σύμφωνα με αποκλειστική έρευνα που δημοσίευσε χθες (18/1) το αμερικανικό περιοδικό TIME. Εν τω μεταξύ, η OpenAI επιβεβαίωσε ότι προσέλαβε εργαζόμενους από την Κένυα για να βοηθήσουν στην ανάπτυξη ενός εργαλείου που επισημαίνει προβληματικό περιεχόμενο, σύμφωνα με το TΙΜΕ.

Το TΙΜΕ αποκάλυψε επίσης ότι οι εξωτερικοί συνεργάτες της OpenAI από την Κένυα, κέρδιζαν λιγότερα από δύο δολάρια την ώρα για να κάνουν το ChatGPT ασφαλέστερο για τους χρήστες. Συγκεκριμένα, οι εργαζόμενοι που ήταν υπεύθυνοι για το έργο αυτό, αμοίβονταν με περίπου 1,32 και 2 δολάρια την ώρα, ανάλογα με την εμπειρία και τα προσόντα τους.

Το λογισμικό της τεχνητής νοημοσύνης ChatGPT είναι σε θέση να συντάξει ένα κείμενο με βάση μια ερώτηση που του θέτετε γραπτώς. Τα αποτελέσματα είναι συχνά εντυπωσιακά. Για να επιτευχθεί αυτό το αποτέλεσμα, το bot έπρεπε να εκπαιδευτεί με ένα μεγάλο όγκο δεδομένων. Όμως, το δημοσίευμα του TΙΜΕ τονίζει ότι «τμήματα του Διαδικτύου είναι γεμάτα τοξικότητα και προκαταλήψεις. Το GPT-3, ο προκάτοχος του ChatGPT ήταν ήδη εντυπωσιακό στη λειτουργία του, αλλά ήταν επίσης επιρρεπές σε βίαια, σεξιστικά και ρατσιστικά σχόλια».

Σύμφωνα με το άρθρο του αμερικανικού περιοδικού, η εταιρεία OpenAI εφάρμοσε ένα σύστημα ασφαλείας που λειτουργεί με τεχνητή νοημοσύνη για να «περιορίσει αυτή τη ζημιά, παράγοντας ένα chatbot κατάλληλο για καθημερινή χρήση». Αυτό το σύστημα ασφαλείας είναι εμπνευσμένο από το έργο άλλων εταιρειών κοινωνικής δικτύωσης «οι οποίες είχαν ήδη δείξει ότι ήταν δυνατό να αναπτύξουν τεχνητή νοημοσύνη που θα μπορούσε να εντοπίσει τοξικές συμπεριφορές, όπως η ρητορική μίσους, προκειμένου να τις απομακρύνουν από τις πλατφόρμες τους».

Για να μπορεί να εντοπίζει, να φιλτράρει και να εμποδίζει την εμφάνιση τέτοιων περιστατικών, το σύστημα έπρεπε να εκπαιδευτεί με παραδείγματα που χαρακτηρίζονταν ως βίαια και συχνά σχετίζονταν με σεξουαλική κακοποίηση. Στη συνέχεια, η OpenAI έστειλε δεκάδες χιλιάδες αποσπάσματα κειμένων σε μια εταιρεία στην Κένυα.

«Ορισμένα  από τα αποσπάσματα κειμένου περιέγραφαν φρικιαστικές καταστάσεις με ανατριχιαστικές λεπτομέρειες, όπως σεξουαλική κακοποίηση παιδιών, κτηνοβασία, δολοφονίες, αυτοκτονίες, βασανιστήρια, αυτοακρωτηριασμούς και αιμομιξία», αναφέρει το άρθρο.

Τέσσερις εργαζόμενοι συμφώνησαν να μιλήσουν στους δημοσιογράφους του ΤΙΜΕ υπό τον όρο της ανωνυμίας, «επειδή φοβόντουσαν μη χάσουν τα προς το ζην». Ένας υπάλληλος που ήταν υπεύθυνος για την ανάγνωση και την επισήμανση των κειμένων αυτών είπε ότι η όλη εμπειρία ήταν βασανιστική. Οι υπαλληλοι της Sama είπαν επίσης ότι ήταν υποχρεωμένοι να διαβάζουν 150 έως 200 αποσπάσματα κειμένων σε κάθε 9ωρη βάρδια τους. Ένας αριθμός που αμφισβητεί η SAMA, η οποία υπέγραψε τρεις συμβάσεις συνολικού ύψους 200.000 δολαρίων για την εκτέλεση του συγκεκριμένου έργου.

ΠΗΓΗ: ΤΙΜΕ, Business Insider

www.ertnews.gr



Διαβάστε όλο το Άρθρο…

Like
Like Love Haha Wow Sad Angry
Previous Article

Εκπαιδευτικές επισκέψεις στο Οικολογικό Πάρκο του Έλους της Αγυιάς

Next Article

Επέκταση για το Samsung Wallet – Διαθέσιμο σε 8 ακόμη χώρες

Μπορεί επίσης να σας αρέσουν:

Διαβάστε επίσης: