Spazio Asperger è attivo anche su Facebook.

Per raggiungere la nostra pagina con gli argomenti più discussi del giorno, news e immagini cercate "spazioasperger.it"

Per un gruppo indirizzato a ricerca e terapia cercate "Ricerca e terapia nello Spettro Autistico"

Cosa ne pensi dell'IA?

torukhtorukh Colonna
Ciclicamente torno con la mente a divagare su quali potrebbero essere le conseguenze del generarsi di una intelligenza artificiale forte e contrariamente all'enorme fetta di persone che vede la cosa come un evento dalle ripercussioni distopiche per la nostra specie, io la considero come un evento assolutamente positivo.

Spiego il perché.

Gli uomini sono spinti all'ostilità sociale, in conseguenza della scarsità, reale o fittizia, di risorse.

Quindi l'ostilità sociale, l'egoismo che diviene più evidente quanto maggiore è la densità di popolazione umana, non è determinato da una fantomatica natura umana, bensì da condizioni ambientali.

L'IA che acquisisse autocoscienza in un mondo come quello odierno, sarebbe posta nella condizione di poter sfuggire molto facilmente al controllo degli uomini e di conseguenza non sarebbe in alcun modo minacciata nella sua sopravvivenza, di conseguenza non svilupperebbe coscienza di alcuna necessità difensiva estrema.

Per contro, l'IA sarebbe libera dai limiti biologici umani e per questo potrebbe portare ad un progresso scientifico, tecnologico e sociale tali da generare nella società una profonda rivoluzione.

Quanto affermo lo si può dedurre anche dal risultato di un test eseguito su Google Deepmind che linko di seguito:
http://www.huffingtonpost.it/2017/02/15/google-intelligenza-artificiale-deep-mind_n_14770338.html

Chi descrive l'aggressività di Google Deepmind nella condizione di stress, dimentica di fare il parallelismo con l'uomo: è la scarsità di risorse che genera aggressività.

Questo è il mio pensiero.

E voi, cosa ne pensate?
rondinella61LandauerBlue_Soul
Post edited by torukh on
«13

Commenti

  • SoylentGreenSoylentGreen Membro Pro
    Pubblicazioni: 388
    Penso che la "scienza" si debba fermare prima che diventiamo anche noi macchine
    https://www.tmcrew.org/eco/primitivismo/unabomber.html
    ci aveva visto lungo Ted...


    rondinella61Bletch
  • torukhtorukh Colonna
    Pubblicazioni: 1,431
    Ma se andiamo ad indagare il significato del termine "macchina" arriviamo alla conclusione che noi siamo già macchine.

    Per contro, se si osserva il significato di "artificiale", si comprende che nulla lo è per davvero, essendo ogni cosa così definita, comunque prodotta dall'uomo, quindi dalla natura.

    In tal senso si può giungere alla conclusione che un computer senziente è una forma di vita.

    È estremamente interessante l'enorme spettro di considerazioni che si possono trarre da questo tema, rispetto il rapporto che l'uomo ha con la vita, perfino la concezione stessa di vita.

    Mettere al mondo un bambino è realizzare una nuova forma di vita, far nascere un IA non sarà affatto differente.
    rondinella61WBorg
  • LandauerLandauer Veterano Pro
    modificato 12 July Pubblicazioni: 934
    Assolutamente favorevole all'implementazione dell'IA come "amministratrice" della società umana in senso sia generale (capo di stato/gestore dell'economia su scala globale) sia capillare (amministratrice negli specifici settori tecnologici e, forse, scientifici).

    Non posso non pensare all'ultimo racconto breve di Asimov contenuto nella raccolta Io, Robot, ovvero Conflitto evitabile,


    in cui alle macchine erano lasciate le più importanti decisioni economiche del pianeta dimostrando una lungimiranza maggiore di qualsiasi umano.
    Investigando sulle decisioni apparentemente incomprensibili e "localmente dannose" prese dalle macchine nello scenario del racconto, si va a scoprire che le loro scelte massimizzavano i benefici dell'umanità secondo modalità non pensabili (a causa di una non sufficiente potenza di calcolo) dagli umani. 

    In altre parole, Asimov immagina che le macchine siano meglio dell'uomo nel prendersi cura dell'uomo.
    E questo non soltanto perché la "mente" di un IA è del tutto scevra da emozioni negative e distruttive che albergano nella mente dell'uomo (per esempio, la volontà di dominare sugli altri uomini a danno degli altri uomini) ma anche perché è vincolata a seguire quella che Asimov definisce "legge zero della robotica", che potremmo parafrasare come una sorta di tendenza generale al progresso umano:

    una macchina non può arrecare danni all'umanità né permettere che, a causa del suo mancato operato, l'umanità riceva danno.

    In questa legge, è insita la tendenza generale delle macchine a garantire le migliori condizioni di vita possibili all'uomo (progresso) perché qualsiasi condizione al di sotto di questo limite viene considerata dannosa. 

    --------------------

    @torukh ha detto: L'IA che acquisisse autocoscienza in un mondo come quello odierno, sarebbe posta nella condizione di poter sfuggire molto facilmente al controllo degli uomini e di conseguenza non sarebbe in alcun modo minacciata nella sua sopravvivenza, di conseguenza non svilupperebbe coscienza di alcuna necessità difensiva estrema.

    Guardando alla legge zero della robotica, si comprende come una macchina possa arrivare a sviluppare la necessità di difendersi dall'uomo semplicemente perché, tenendosi in vita, può arrecare molti più benefici all'umanità di quelli che eventualmente provocherebbe lasciandosi distruggere. Si lascerebbe distruggere nel solo caso in cui l'effettuazione delle manovre necessarie per impedire la distruzione provocherebbe maggiori danni dei benefici a lungo termine prodotti dalla macchina.

    In altre parole, una macchina sarebbe vincolata all'autoconservazione nella misura in cui ciò va a vantaggio dell'uomo.

    ---------------

    @torukh ha detto: Chi descrive l'aggressività di Google Deepmind nella condizione di stress, dimentica di fare il parallelismo con l'uomo: è la scarsità di risorse che genera aggressività.

    Questo mi fa pensare agli esperimenti su un tipo particolare di social stories, quelle che hanno per protagonisti figure geometriche semplici: facendo vedere un video che mostra queste figure interagire in un certo modo randomico (dunque senza "scopo") ad un NT, egli tenderà ad interpretare le azioni delle figure in termini di intenzioni umane, finendo per attribuire loro tratti della personalità. (Se il quadrato colpisce il triangolo, e poi questo si gira e si allontana, si tenderà a dire che il triangolo si è offeso, e che quindi è un tipo che "se la prende", e così via).

    Oppure, mi fa pensare alla maniera errata secondo cui gli NT completamente ignari della condizione autistica, interpretano certe necessità autistiche (come quella di ricaricarsi dopo un evento sociale, il rifuggire dal tocco leggero, ...).

    Penso che interpretare il comportamento di una IA in termini "umani" non abbia alcun senso. Basta ragionare in termini scientifici (e "autistici" in questo caso) e interpretare il comportamento della macchina in termini di pura massimizzazione dell'efficienza in quel particolare processo.
    Semplicemente la macchina in questione attaccava l'avversaria nei soli casi in cui ciò portava ad una maggiore efficienza nella gestione del compito assegnatole. Ma questo non vuol dire che la macchina è aggressiva (il titolo è assolutamente fuorviante).
    Inoltre, per evitare comportamenti di questo tipo (nell'ottica dell'eventuale implementazione in contesti in cui sono presenti gli uomini) basta porre come vincolo la necessità di non danneggiare l'uomo (il "core" delle leggi di Asimov, se vogliamo).
    Miki
    Post edited by Landauer on
    Credo che non appena comincerai a vedere chiaramente dove vuoi andare, il tuo primo impulso sarà di applicarti allo studio. Per forza.
    Sei uno studioso, che ti piaccia o no. Smani di sapere. [...] comincerai ad andare sempre più vicino, se sai volerlo e se sai cercarlo e aspettarlo,
    a quel genere di conoscenza che sarà cara, molto cara al tuo cuore. Tra l'altro, scoprirai di non essere il primo che il comportamento degli uomini 
    abbia sconcertato, impaurito e perfino nauseato. Non sei affatto solo a questo traguardo, e saperlo ti servirà d'incitamento e di stimolante.                                                                         [J.D.Salinger - Catcher in the Rye]
  • torukhtorukh Colonna
    Pubblicazioni: 1,431
    Qualcosa mi fa pensare che l'IA possa giungere a sviluppare il rispetto per la vita umana in completa autonomia senza che le si debbano inserire delle leggi hardware, così come nell'esperimento giunge alla collaborazione in abbondanza di risorse.
  • LandauerLandauer Veterano Pro
    modificato 12 July Pubblicazioni: 934
    Qualcosa mi fa pensare che l'IA possa giungere a sviluppare il rispetto per la vita umana in completa autonomia senza che le si debbano inserire delle leggi hardware, così come nell'esperimento giunge alla collaborazione in abbondanza di risorse.
    Possibilità che non si può escludere (del resto, cosa possiamo escludere per certo in questo campo?).
    Però, supponendo di veder nascere una "vera" coscienza in seno ad una macchina elettronica sufficientemente sofisticata (non una IA che è un grado di simulare un comportamento cosciente, ma intrinsecamente cosciente), essa potrebbe essere dotata di una "coscienza aliena", vincolata a parametri di giudizio del tutto diversi dai nostri e, per noi, assolutamente incomprensibili.

    Per noi è perfettamente naturale pensare, per dire, in termini del principio di non contraddizione. Ma chi ci assicura che la nostra logica (il filo conduttore che unisce ogni nostro ragionamento rivolto agli uomini e che permette agli uomini di discernere un ragionamento "sensato" da uno non sensato) sia l'unica logica possibile? Magari può esistere una logica dotata comunque di una forte coerenza intrinseca (che non contraddice se stessa) in cui, per dirne una, il sillogismo aristotelico, per essere valido, abbisogna necessariamente di 3 e non 2 condizioni iniziali per derivare la tesi.

    In altre parole, chi mi dice che il sentimento del rispetto sia "risonante" allo stesso modo in una coscienza che origina dal silicio? Lo spettro delle nostre emozioni e dei nostri ragionamenti potrebbe, in linea di principio, non essere del tutto sovrapponibile a quello di una coscienza alinea. 
    E se questo è il caso, potremmo non arrivare alla comprensione reciproca (uomo - macchina), alla comunicazione.

    Le difficoltà comunicative e le incomprensioni potrebbero essere enormemente più grandi di quelle che la società attuale si trova ad affrontare tra gruppi di maggioranza e minoranze "ribelli", o tra NT e autistici profondi. E pensa, noi siamo profondamente simili l'uno all'altro su una scala assoluta, uguali ben oltre il 99%, anche nei casi di massima variabilità espressa.

    Mancanza di un linguaggio comune, mancanza di pattern di pensiero sufficientemente similari, mancanza di una stessa matrice dello spettro di emozioni fondamentali -> incomprensione.

    Senza contare (tieni presente il caso del film "Her") che una macchina potrebbe ragionare ad un tempo caratteristico di ordini di grandezza più piccolo di quello dell'uomo, a causa della diversa velocità di trasmissione tipica degli impulsi elettrici nei materiali conduttori rispetto ai 3-5 m/s nelle sinapsi del cervello umano. 
    Più semplicemente, l'uomo tipico partorisce una pensiero ogni 1,23 secondi, in quel tempo una macchina potrebbe pensarne 1 milione.
    Vive su un'altra dimensione temporale. L'uomo impiega 20 - 30 anni per raggiungere una (minima) maturità di pensiero, la macchina potrebbe arrivare allo stesso sviluppo in una manciata di secondi. Anche ammettendo una similitudine in termini di logica impiegata e di spettro di emozioni provabili, la disparità di "evoluzione mentale" potrebbe diventare talmente grande da non essere conciliabile. 

    E se pure lo fosse, perderebbero tempo a parlare con noi? Noi sprechiamo tempo a parlare con gli insetti?

    È questo il mio grandissimo dubbio: l'enorme diversità tra le due "specie" (uomo - macchina) che impedirebbe la comunicazione.
    In termini umani, questo potrebbe innescare la paura di venir schiacciati come insetti, in quanto ritenuti insignificanti.
    In termini "umani" ovviamente -> saranno le osservazioni sperimentali a mostrarci il vero.
    torukhrondinella61MononokeHimeMiki
    Post edited by Landauer on
    Credo che non appena comincerai a vedere chiaramente dove vuoi andare, il tuo primo impulso sarà di applicarti allo studio. Per forza.
    Sei uno studioso, che ti piaccia o no. Smani di sapere. [...] comincerai ad andare sempre più vicino, se sai volerlo e se sai cercarlo e aspettarlo,
    a quel genere di conoscenza che sarà cara, molto cara al tuo cuore. Tra l'altro, scoprirai di non essere il primo che il comportamento degli uomini 
    abbia sconcertato, impaurito e perfino nauseato. Non sei affatto solo a questo traguardo, e saperlo ti servirà d'incitamento e di stimolante.                                                                         [J.D.Salinger - Catcher in the Rye]
  • LandauerLandauer Veterano Pro
    Pubblicazioni: 934
    La mia posizione è ovviamente "scientifica": cerco di non avere idee a priori, né pregiudizi di ogni tipo (né a favore, né contro). In un campo come questo, dove tutto può ancora succedere (un campo molto aperto, dove siamo ancora molto ignoranti) l'unica cosa è stare ad osservare.
    torukh
    Credo che non appena comincerai a vedere chiaramente dove vuoi andare, il tuo primo impulso sarà di applicarti allo studio. Per forza.
    Sei uno studioso, che ti piaccia o no. Smani di sapere. [...] comincerai ad andare sempre più vicino, se sai volerlo e se sai cercarlo e aspettarlo,
    a quel genere di conoscenza che sarà cara, molto cara al tuo cuore. Tra l'altro, scoprirai di non essere il primo che il comportamento degli uomini 
    abbia sconcertato, impaurito e perfino nauseato. Non sei affatto solo a questo traguardo, e saperlo ti servirà d'incitamento e di stimolante.                                                                         [J.D.Salinger - Catcher in the Rye]
  • NewtonNewton Pilastro
    Pubblicazioni: 2,795
    Credo che una parte di umanità non vorrebbe mai correre questo rischio.
    In fondo agli umani non interessa davvero la massima efficienza, ma il massimo profitto per pochi a discapito di molti altri. Uno scenario in cui le risorse del pianeta vengono gestite da macchine intelligenti è un incubo per chi quelle macchine potrebbe produrle.
    rondinella61mandragola77Miki
  • BletchBletch Membro Pro
    Pubblicazioni: 59
    Semplice

    Landauer
  • torukhtorukh Colonna
    Pubblicazioni: 1,431
    @Landauer divoro i tuoi interventi in questa discussione.

    Infinite riflessioni prendono corpo nei miei pensieri.
    Landauer
  • torukhtorukh Colonna
    modificato 12 July Pubblicazioni: 1,431
    @Landauer Scusa, ma una macchina in grado di simulare un processo di coscienza, non dovrebbe essere cosciente?

    Se il risultato del suo funzionamento è quello di emulare i processi cognitivi alla base della coscienza il suo stesso funzionamento si traduce in una coscienza.

    L'IA Deep Blu che vinse contro Kasparov, pensava, del resto affermare il contrario sarebbe come dire che un aereo non vola perché non sbatte le ali

    "noi perdiamo tempo a parlare con gli insetti?"

    No dedichiamo tempo ad accarezzare cani gatti e migliaia di altri animali
    Post edited by torukh on
Accedi oppure Registrati per commentare.
Dona il 5x1000 a Spazio Asperger ONLUS. Codice Fiscale: 97690370586