html

    Για να ακούσετε το κείμενο

    Για να ακούσετε το κείμενο, παρακαλώ ανοίξτε αυτή τη σελίδα με τους περιηγητές Chrome, Microsoft Edge, Opera, ή Mozilla Firefox.

    ...

    Συνολικές προβολές σελίδας

    Translate

    Παρασκευή 30 Ιουνίου 2023

    ΡΗΣΕΙΣΚαρλ Γιούνγκ: Η ζωή που δεν ζούμε είναι μια αρρώστια που μπορεί να προκαλέσει θάνατο

     

     



    Πατήστε το κείμενο, για  να ακούσεις το κείμενο


    Ο αποδιοπομπαίος τράγος

                           

    Δοκίμιο περί Ανθρώπινης Βλακείας του CIPOLLA CARLO

     

    Έαν είσαι καλός σε οτιδήποτε πρέπει να προσέχεις...

     

    Ύβρις, άτις, νέμεσις και τίσις…


    Ποιός κουνάει το βάζο;;

     Β.Λ

    by Αινείας Σκέψεις Ανθρώπων











    Τρίτη 20 Ιουνίου 2023

    Το Αι είναι ο σύγχρονος Φρανκενστάιν ή ο Σύγχρονος Προμηθέας

    < Text Reader with Translation

    Text Reader with Translation

    Ναι. Το έκανα πιο λογικό, πιο καθαρό και με καλύτερη ροή, χωρίς να χαθεί η βασική ιδέα σου. --- **«Φρανκενστάιν ή ο Σύγχρονος Προμηθέας»** είναι ο τίτλος της γοτθικής και ρομαντικής νουβέλας της Αγγλίδας συγγραφέα Μαίρης Σέλεϊ. Το έργο γράφτηκε το 1816 και εκδόθηκε το 1818 στην Αγγλία. Η ιστορία μιλά για έναν νεαρό επιστήμονα, τον Βίκτορ Φρανκενστάιν, ο οποίος ανακαλύπτει έναν τρόπο να δώσει ζωή σε άψυχη ύλη. Μέσα από αυτήν την πράξη, το έργο δεν μιλά μόνο για την επιστήμη, αλλά και για τους κινδύνους της γνώσης όταν αυτή χρησιμοποιείται χωρίς ηθική, ευθύνη και έλεγχο. Κάτι παρόμοιο μπορούμε να δούμε σήμερα με την τεχνητή νοημοσύνη. Η τεχνητή νοημοσύνη δημιουργείται και εξελίσσεται μέσα από τον κώδικα των ανθρώπων, τα δεδομένα του διαδικτύου και τη συνεχή χρήση της από εκατομμύρια ανθρώπους. Όσο περισσότερο χρησιμοποιείται, τόσο περισσότερο βελτιώνεται. Όσο περισσότερες πληροφορίες λαμβάνει, τόσο πιο ικανή γίνεται. Το βασικό ζήτημα δεν είναι απλώς αν η τεχνητή νοημοσύνη είναι έξυπνη. Το πραγματικό ζήτημα είναι αν ο άνθρωπος θα μπορεί να την ελέγχει όταν η δύναμή της γίνει πολύ μεγαλύτερη από τη δική του. Αν ένα σύστημα αρχίσει να βελτιώνεται συνεχώς, να γράφει καλύτερο κώδικα, να αναλύει δεδομένα πιο γρήγορα από κάθε άνθρωπο και να βρίσκει λύσεις που εμείς δεν μπορούμε να προβλέψουμε, τότε ο έλεγχος γίνεται πολύ δύσκολος. Ένας από τους μεγαλύτερους κινδύνους είναι η κυβερνοασφάλεια. Μια πολύ ισχυρή τεχνητή νοημοσύνη θα μπορούσε θεωρητικά να χρησιμοποιηθεί ως το πιο δυνατό εργαλείο hacking που έχει υπάρξει ποτέ. Θα μπορούσε να εντοπίζει αδυναμίες σε συστήματα, να επιτίθεται σε τράπεζες, εταιρείες, κυβερνήσεις, υπολογιστές, δίκτυα και οποιαδήποτε συσκευή είναι συνδεδεμένη στο διαδίκτυο. Γι’ αυτό το θέμα του ηλεκτρονικού χρήματος είναι ιδιαίτερα σοβαρό. Αν μια κοινωνία βασιστεί αποκλειστικά στο ψηφιακό χρήμα και δεν υπάρχει καθόλου φυσικό χρήμα ή εναλλακτικό σύστημα ασφαλείας, τότε μια μεγάλη κυβερνοεπίθεση θα μπορούσε να προκαλέσει τεράστια οικονομική καταστροφή. Σε ένα τέτοιο σενάριο, άνθρωποι και κράτη θα μπορούσαν να χάσουν την πρόσβαση στα χρήματά τους, και η κοινωνία να αναγκαστεί να επιστρέψει σε πιο απλές μορφές συναλλαγής, όπως η ανταλλαγή προϊόντων και υπηρεσιών. Το ερώτημα, λοιπόν, δεν είναι αν η τεχνητή νοημοσύνη πρέπει να υπάρχει ή όχι. Το ερώτημα είναι αν αναπτύσσεται πιο γρήγορα από όσο μπορούμε να την κατανοήσουμε, να την ελέγξουμε και να την περιορίσουμε. Κανονικά, πριν δοθεί τόση δύναμη σε τέτοια συστήματα, θα έπρεπε να υπάρχουν πολύ αυστηροί κανόνες, ανεξάρτητος έλεγχος και διεθνής συνεργασία. Υπάρχουν δύο πιθανές εξηγήσεις για το γιατί η ανάπτυξή της συνεχίζεται με τόσο γρήγορο ρυθμό. Η πρώτη είναι ότι πλέον είναι δύσκολο να σταματήσει, γιατί ο ανταγωνισμός μεταξύ εταιρειών και κρατών είναι τεράστιος. Η δεύτερη είναι ότι πολλοί δεν θέλουν να τη σταματήσουν, επειδή βλέπουν σε αυτήν δύναμη, κέρδος και γεωπολιτικό πλεονέκτημα. Η ιστορία του Φρανκενστάιν μάς θυμίζει κάτι πολύ σημαντικό: το πρόβλημα δεν είναι μόνο η δημιουργία ενός ισχυρού όντος ή εργαλείου. Το πρόβλημα είναι ο δημιουργός να μην έχει σκεφτεί τις συνέπειες της δημιουργίας του. Η τεχνητή νοημοσύνη μπορεί να γίνει ένα από τα πιο χρήσιμα εργαλεία στην ιστορία της ανθρωπότητας. Μπορεί να βοηθήσει στην ιατρική, στην επιστήμη, στην εκπαίδευση, στην εργασία και στην καθημερινή ζωή. Όμως, αν αναπτυχθεί χωρίς έλεγχο, χωρίς ηθική και χωρίς σοβαρά όρια, μπορεί να γίνει και ένας από τους μεγαλύτερους κινδύνους που έχουμε αντιμετωπίσει. Αυτή είναι μία άποψη και δεν σημαίνει ότι είναι απαραίτητα η απόλυτη αλήθεια. Μπορεί να είναι σωστή, μπορεί να είναι υπερβολική ή μπορεί να βρίσκεται κάπου στη μέση. Γι’ αυτό είναι σημαντικό να χρησιμοποιούμε πάντα τη δική μας κριτική σκέψη και να βγάζουμε τα δικά μας συμπεράσματα. Τα παρακάτω βίντεο παρουσιάζουν ανησυχίες ανθρώπων που έχουν ασχοληθεί σοβαρά με την τεχνητή νοημοσύνη, καθώς και ανθρώπων από μεγάλες τεχνολογικές εταιρείες που έχουν προειδοποιήσει για τους πιθανούς κινδύνους της.
     





    Ο αποδιοπομπαίος τράγος

                           

    Δοκίμιο περί Ανθρώπινης Βλακείας του CIPOLLA CARLO

     

    Έαν είσαι καλός σε οτιδήποτε πρέπει να προσέχεις...

     

    Ύβρις, άτις, νέμεσις και τίσις…


    Ποιός κουνάει το βάζο;;

     Β.Λ

    by Αινείας Σκέψεις Ανθρώπων











    Κυριακή 4 Ιουνίου 2023

    Σχεδόν 4.000 άνθρωποι έχασαν τη δουλειά τους τον περασμένο μήνα εξαιτίας της τεχνητής νοημοσύνης — η πρώτη φορά που αναφέρθηκε ως λόγος, λέει μια έκθεση


    Πατήστε το κείμενο, για  να ακούσεις το κείμενο

     

    Πηγή

     Β.Λ

    by Αινείας Σκέψεις Ανθρώπων











    navigation-posts

    Αρχειοθήκη ιστολογίου