Loading...

Κατηγορίες

Δευτέρα 28 Απρ 2025
Οι άνθρωποι εμπιστεύονται τις νομικές συμβουλές που δημιουργούνται από το ChatGPT περισσότερο από έναν δικηγόρο – νέα μελέτη
Κλίκ για μεγέθυνση














Οι άνθρωποι που δεν είναι νομικοί εμπειρογνώμονες είναι πιο πρόθυμοι να βασιστούν σε νομικές συμβουλές που παρέχονται από το ChatGPT παρά από πραγματικούς δικηγόρους – τουλάχιστον, όταν δεν γνωρίζουν ποιος από τους δύο έδωσε τη συμβουλή. Αυτό είναι το βασικό εύρημα της νέας μας έρευνας , η οποία υπογραμμίζει ορισμένες σημαντικές ανησυχίες σχετικά με τον τρόπο με τον οποίο το κοινό βασίζεται όλο και περισσότερο στο περιεχόμενο που δημιουργείται από την τεχνητή νοημοσύνη. Βρήκαμε επίσης ότι το κοινό έχει τουλάχιστον κάποια ικανότητα να προσδιορίσει εάν η συμβουλή προήλθε από το ChatGPT ή από έναν ανθρώπινο δικηγόρο.

Εργαλεία τεχνητής νοημοσύνης όπως το ChatGPT και άλλα μεγάλα γλωσσικά μοντέλα (LLM) ανοίγουν τον δρόμο τους στην καθημερινότητά μας. Υπόσχονται να παρέχουν γρήγορες απαντήσεις, να δημιουργήσουν ιδέες, να διαγνώσουν ιατρικά συμπτώματα και ακόμη και να βοηθήσουν σε νομικές ερωτήσεις παρέχοντας συγκεκριμένες νομικές συμβουλές.

Αλλά τα LLM είναι γνωστό ότι δημιουργούν τις λεγόμενες "παραισθήσεις" - δηλαδή, αποτελέσματα που περιέχουν ανακριβές ή παράλογο περιεχόμενο. Αυτό σημαίνει ότι υπάρχει πραγματικός κίνδυνος που σχετίζεται με τους ανθρώπους που βασίζονται υπερβολικά σε αυτούς, ιδιαίτερα σε τομείς υψηλού κινδύνου όπως το δίκαιο. Οι LLM τείνουν να παρουσιάζουν συμβουλές με σιγουριά, καθιστώντας δύσκολο για τους ανθρώπους να διακρίνουν τις καλές συμβουλές από τις αποφασιστικά κακές συμβουλές.

Πραγματοποιήσαμε τρία πειράματα σε συνολικά 288 άτομα. Στα δύο πρώτα πειράματα, οι συμμετέχοντες έλαβαν νομικές συμβουλές και ρωτήθηκαν για το ποια θα ήταν διατεθειμένα να ενεργήσουν. Όταν οι άνθρωποι δεν ήξεραν αν οι συμβουλές είχαν προέλθει από δικηγόρο ή τεχνητή νοημοσύνη, διαπιστώσαμε ότι ήταν πιο πρόθυμοι να βασιστούν στις συμβουλές που δημιουργήθηκαν από την τεχνητή νοημοσύνη. Αυτό σημαίνει ότι εάν ένα LLM παρέχει νομικές συμβουλές χωρίς να αποκαλύπτει τη φύση του, οι άνθρωποι μπορεί να το εκλάβουν ως γεγονός και να το προτιμήσουν από συμβουλές ειδικών από δικηγόρους – πιθανώς χωρίς να αμφισβητήσουν την ακρίβειά του.

Ακόμη και όταν είπαν στους συμμετέχοντες ποιες συμβουλές προέρχονταν από δικηγόρο και ποιες δημιουργήθηκαν από την τεχνητή νοημοσύνη, διαπιστώσαμε ότι ήταν πρόθυμοι να ακολουθήσουν το ChatGPT εξίσου με τον δικηγόρο.

Ένας λόγος που μπορεί να ευνοούνται τα LLM, όπως διαπιστώσαμε στη μελέτη μας, είναι ότι χρησιμοποιούν πιο σύνθετη γλώσσα. Από την άλλη πλευρά, οι πραγματικοί δικηγόροι είχαν την τάση να χρησιμοποιούν απλούστερη γλώσσα, αλλά χρησιμοποιούν περισσότερες λέξεις στις απαντήσεις τους.

Σκίτσο του δικηγόρου στην αίθουσα του δικαστηρίου
Οι LLMs μπορεί να εκφράσουν τις συμβουλές τους με μεγαλύτερη σιγουριά από τους πραγματικούς δικηγόρους. apatrimonio / shutterstock

Το τρίτο πείραμα διερεύνησε εάν οι συμμετέχοντες μπορούσαν να διακρίνουν μεταξύ του περιεχομένου LLM και του περιεχομένου που δημιουργήθηκε από δικηγόρους όταν δεν τους αποκαλύφθηκε η πηγή. Τα καλά νέα είναι ότι μπορούν – αλλά όχι πολύ.

Στην εργασία μας, η τυχαία εικασία θα είχε βαθμολογία 0,5, ενώ η τέλεια διάκριση θα είχε βαθμολογία 1,0. Κατά μέσο όρο, οι συμμετέχοντες σημείωσαν 0,59, υποδεικνύοντας την απόδοση που ήταν ελαφρώς καλύτερη από την τυχαία εικασία, αλλά παρόλα αυτά σχετικά αδύναμη

Κανονισμός και παιδεία τεχνητής νοημοσύνης

Αυτή είναι μια κρίσιμη στιγμή για έρευνα όπως η δική μας, καθώς συστήματα που τροφοδοτούνται με AI, όπως τα chatbots και τα LLMs ενσωματώνονται όλο και περισσότερο στην καθημερινή ζωή. Η Alexa ή το Google Home μπορούν να λειτουργήσουν ως οικιακός βοηθός, ενώ τα συστήματα με δυνατότητα τεχνητής νοημοσύνης μπορούν να βοηθήσουν σε πολύπλοκες εργασίες, όπως αγορές στο διαδίκτυο, σύνοψη νομικών κειμένων ή δημιουργία ιατρικών αρχείων.

Ωστόσο, αυτό συνεπάγεται σημαντικούς κινδύνους λήψης αποφάσεων που ενδέχεται να αλλάξουν τη ζωή, οι οποίες καθοδηγούνται από παραπλανητική παραπληροφόρηση. Στη νομική περίπτωση, οι παραισθήσεις που δημιουργούνται από την τεχνητή νοημοσύνη θα μπορούσαν να προκαλέσουν περιττές επιπλοκές ή ακόμη και δικαστικές αποτυχίες.

Γι' αυτό δεν ήταν ποτέ πιο σημαντικό να ρυθμιστεί σωστά η τεχνητή νοημοσύνη. Οι μέχρι στιγμής προσπάθειες περιλαμβάνουν τον νόμο της ΕΕ για την τεχνητή νοημοσύνη, το άρθρο 50.9 του οποίου ορίζει ότι οι τεχνητές νοημοσύνης που δημιουργούν κείμενο θα πρέπει να διασφαλίζουν ότι τα αποτελέσματά τους "σημειώνονται σε αναγνώσιμη από μηχανή μορφή και ανιχνεύσιμα ως τεχνητά δημιουργημένα ή χειραγωγημένα".

Αλλά αυτό είναι μόνο ένα μέρος της λύσης. Θα χρειαστεί επίσης να βελτιώσουμε τον αλφαβητισμό της τεχνητής νοημοσύνης, ώστε το κοινό να μπορεί να αξιολογεί καλύτερα το περιεχόμενο. Όταν οι άνθρωποι είναι σε θέση να αναγνωρίσουν καλύτερα την τεχνητή νοημοσύνη, θα μπορούν να λαμβάνουν πιο ενημερωμένες αποφάσεις.

Αυτό σημαίνει ότι πρέπει να μάθουμε να αμφισβητούμε την πηγή των συμβουλών, να κατανοούμε τις δυνατότητες και τους περιορισμούς της τεχνητής νοημοσύνης και να δίνουμε έμφαση στη χρήση κριτικής σκέψης και κοινής λογικής κατά την αλληλεπίδραση με περιεχόμενο που δημιουργείται από την τεχνητή νοημοσύνη. Πρακτικά, αυτό σημαίνει διασταύρωση σημαντικών πληροφοριών με αξιόπιστες πηγές και συμπερίληψη ανθρώπινων ειδικών για την αποφυγή υπερβολικής εξάρτησης σε πληροφορίες που δημιουργούνται από την τεχνητή νοημοσύνη.

Στην περίπτωση νομικών συμβουλών, μπορεί να είναι καλό να χρησιμοποιήσετε την τεχνητή νοημοσύνη για ορισμένες αρχικές ερωτήσεις: "Ποιες είναι οι επιλογές μου εδώ; Τι πρέπει να διαβάσω; Υπάρχουν παρόμοιες περιπτώσεις με τη δική μου ή ποιος τομέας δικαίου είναι αυτός;" Αλλά είναι σημαντικό να επαληθεύσετε τη συμβουλή με έναν ανθρώπινο δικηγόρο πολύ πριν καταλήξετε στο δικαστήριο ή ενεργήσετε για οτιδήποτε δημιουργείται από ένα LLM.

Η τεχνητή νοημοσύνη μπορεί να είναι ένα πολύτιμο εργαλείο, αλλά πρέπει να το χρησιμοποιούμε με υπευθυνότητα. Χρησιμοποιώντας μια διττή προσέγγιση που εστιάζει στη ρύθμιση και στον αλφαβητισμό της τεχνητής νοημοσύνης, μπορούμε να εκμεταλλευτούμε τα οφέλη της ελαχιστοποιώντας τους κινδύνους της.



Διαβάστε περισσότερα: Ζητήσαμε από το ChatGPT νομικές συμβουλές – εδώ είναι πέντε λόγοι για τους οποίους δεν πρέπει


CC BY ND
Πιστεύουμε στην ελεύθερη ροή των πληροφοριών
Αναδημοσίευση των άρθρων μας δωρεάν, online ή σε έντυπη μορφή, με την άδεια Creative Commons.

 

Avatar
Jack Marley
Περιβάλλον + Ενεργειακός Συντάκτης

από: https://theconversation.com

 
Copyright © 2011 - 2025 Στύξ - Ανεξάρτητη Πολιτισμική και Πολιτική Εφημερίδα της Βόρειας Πελοποννήσου