User Tag List

Pagina 3 di 8 PrimaPrima ... 234 ... UltimaUltima
Risultati da 21 a 30 di 71
  1. #21
    Forumista storico
    Data Registrazione
    04 May 2009
    Messaggi
    41,302
     Likes dati
    1,276
     Like avuti
    2,925
    Mentioned
    10 Post(s)
    Tagged
    0 Thread(s)

    Predefinito Re: Intelligenza artificiale. La fine dell'uomo?


  2. #22
    Forumista storico
    Data Registrazione
    04 May 2009
    Messaggi
    41,302
     Likes dati
    1,276
     Like avuti
    2,925
    Mentioned
    10 Post(s)
    Tagged
    0 Thread(s)

    Predefinito Re: Intelligenza artificiale. La fine dell'uomo?

    Richiesta per Eri.
    L'ultimo post della prima pagina sarebbe da riportare, se puoi.
    Grazie.

  3. #23
    Forumista storico
    Data Registrazione
    04 May 2009
    Messaggi
    41,302
     Likes dati
    1,276
     Like avuti
    2,925
    Mentioned
    10 Post(s)
    Tagged
    0 Thread(s)

    Predefinito Re: Intelligenza artificiale. La fine dell'uomo?

    14 milioni di posti di lavoro saranno tagliati a livello globale entro il 2027 a causa dell’IA e degli standard ESG: WEF
    Scritto da Katabella Roberts tramite The Epoch Times

  4. #24
    Forumista storico
    Data Registrazione
    04 May 2009
    Messaggi
    41,302
     Likes dati
    1,276
     Like avuti
    2,925
    Mentioned
    10 Post(s)
    Tagged
    0 Thread(s)

    Predefinito Re: Intelligenza artificiale. La fine dell'uomo?


  5. #25
    Forumista storico
    Data Registrazione
    04 May 2009
    Messaggi
    41,302
     Likes dati
    1,276
     Like avuti
    2,925
    Mentioned
    10 Post(s)
    Tagged
    0 Thread(s)

    Predefinito Re: Intelligenza artificiale. La fine dell'uomo?


  6. #26
    gigiragagnin@gmail.com
    Data Registrazione
    23 Dec 2011
    Messaggi
    10,531
     Likes dati
    10
     Like avuti
    1,432
    Mentioned
    43 Post(s)
    Tagged
    0 Thread(s)

    Predefinito Re: Intelligenza artificiale. La fine dell'uomo?

    Leggere la mente, un sistema di intelligenza artificiale può tramutare i pensieri in parole
    Storia di Luke Hurst • 1 h fa

    L'intelligenza artificiale ha scioccato e ispirato milioni di persone negli ultimi mesi, con la sua capacità di scrivere come un essere umano, creare immagini e video straordinari e persino produrre canzoni che stanno scuotendo l'industria musicale.

    Ora, i ricercatori hanno rivelato un'altra potenziale applicazione che potrebbe avere un'enorme eco: l'intelligenza artificiale che può essenzialmente leggere le menti.

    Hanno lavorato a un nuovo sistema di intelligenza artificiale in grado di tradurre l'attività cerebrale di qualcuno in un flusso continuo di testo.

    Chiamato decodificatore semantico, il sistema misura l'attività cerebrale con uno scanner fMRI (risonanza magnetica funzionale) e può generare testo dalla sola attività cerebrale.

    I ricercatori interessati, affiliati all'Università di Austin (Texas), affermano che l'IA potrebbe un giorno aiutare le persone che sono mentalmente coscienti ma incapaci di parlare fisicamente, come quelle che hanno subito gravi ictus.

    "Per un metodo non invasivo, questo è un vero balzo in avanti rispetto a ciò che è stato fatto prima, in genere singole parole o frasi brevi", ha affermato Alex Huth, assistente di Neuroscienze e Informatica presso l'UT Austin.

    Esistono altri sistemi di decodifica del linguaggio in fase di sviluppo, ma questi richiedono ai soggetti di avere impianti chirurgici, classificati come sistemi invasivi. Il decodificatore semantico è un sistema non invasivo, in quanto non sono necessari impianti: a differenza di altri decodificatori, non si è limitati all'uso di parole da un elenco prescritto. Decodificare l'essenza del pensiero
    I ricercatori hanno spiegato che i risultati non sono una trascrizione parola per parola di ciò che il soggetto sente o dice nella mente, ma il decodificatore cattura l'essenza di ciò che viene pensato.

    Circa la metà delle volte, la macchina è in grado di produrre un testo che corrisponda da vicino ai significati delle parole originali.

    In un esperimento, ad esempio, un ascoltatore ha sentito un oratore dire: "Non ho ancora la patente di guida" e la macchina ha tradotto il pensiero in: "Non ha ancora iniziato ad imparare a guidare".

    Durante i test, i ricercatori hanno anche chiesto ai soggetti di guardare brevi video durante la scansione e il decodificatore è stato in grado di utilizzare la loro attività cerebrale per descrivere accuratamente alcuni eventi dei video.

    I risultati sono stati pubblicati sulla rivista Nature.

  7. #27
    Forumista storico
    Data Registrazione
    04 May 2009
    Messaggi
    41,302
     Likes dati
    1,276
     Like avuti
    2,925
    Mentioned
    10 Post(s)
    Tagged
    0 Thread(s)

    Predefinito Re: Intelligenza artificiale. La fine dell'uomo?

    Una domandina da parte di un ignorante come me.
    Con l'intelligenza artificiale abbiamo qualche speranza per il Salvini?

  8. #28
    Forumista storico
    Data Registrazione
    04 May 2009
    Messaggi
    41,302
     Likes dati
    1,276
     Like avuti
    2,925
    Mentioned
    10 Post(s)
    Tagged
    0 Thread(s)

    Predefinito Re: Intelligenza artificiale. La fine dell'uomo?

    Martedì, 16 maggio 2023

    Intelligenza artificiale, l'esperto: "Fermiamola o a breve saremo tutti morti"

    Per Goldman Sachs in poco tempo spariranno 300 milioni di posti di lavoro a tempo pieno. Ma l’economia crescerà del 7% e farà ricchi quelli che lo sono giàdi Antonio Amorosi

    Un gruppo ridotto di esseri umani sta giocando col fuoco e guidando l’involuzione. L'esperto mondiale: “Se qualcuno costruisce un'intelligenza artificiale troppo potente, nelle condizioni attuali, mi aspetto che ogni singolo membro della specie umana e tutta la vita biologica sulla Terra muoia poco dopo”

    Non esistono priorità oltre fermare l’evoluzione dell’Intelligenza Artificiale. Presto le previsioni di Goldman Sachs, una delle più grandi banche d'affari del mondo, potrebbero far sorridere. “Visualizza un'intera civiltà aliena, che pensa a milioni di volte la velocità umana”, ha scritto qualche settimana fa su una delle più prestigiose riviste a livello mondiale, Time, Elizier Yudkowsky, tra i fondatori del settore e che ci lavora dal 2001. Questa civiltà aliena “inizialmente confinata ai computer, in un mondo di creature che sono, dal suo punto di vista, molto stupide e molto lente”. Queste creature molto stupide e lente siamo noi, gli esseri umani.


    https://www.affaritaliani.it/mediate...ti-855316.html
    Ultima modifica di Eridano; 23-05-23 alle 14:26

  9. #29
    Forumista storico
    Data Registrazione
    04 May 2009
    Messaggi
    41,302
     Likes dati
    1,276
     Like avuti
    2,925
    Mentioned
    10 Post(s)
    Tagged
    0 Thread(s)

    Predefinito Re: Intelligenza artificiale. La fine dell'uomo?

    Intelligenza artificiale, ora anche il ceo di OpenAI suona l’allarme: «Servono nuove regole o può mettersi male»

    16 MAGGIO 2023 - 22:40

    Le parole di Sam Altman durante l’audizione al senato americano: «La mia più grande paura è che il campo dell’AI possa fare davvero del male al mondo»

    «La regolamentazione dell’intelligenza artificiale è essenziale». A dirlo, questa volta, è Sam Altman, numero uno di OpenAI, la società che ha creato l’ormai celebre ChatGPT. Nella sua audizione di oggi al congresso americano, Altman si è detto disposto a collaborare con il governo per la stesura di norme che garantiscano un equilibrio tra l’accesso ai benefici della tecnologia e la sicurezza degli utenti. Non solo: «È essenziale che l’intelligenza artificiale sia sviluppata con valori democratici», aggiunge il ceo di OpenAI. Soltanto due mesi fa, in un incontro organizzato da Microsoft a Seattle, Altman aveva elogiato le prestazioni di ChatGPT. Questa volta, di fronte alla commissione Giustizia del senato americano, il dirigente si è mostrato molto più prudente, arrivando addirittura a chiedere un quadro normativo chiaro per «mitigare i rischi» dell’intelligenza artificiale.

    Il timore per le elezioni del 2024
    A soli 38 anni, Sam Altman è già considerato uno dei volti più influenti del settore high tech americano. La sua OpenAI è l’azienda che più è riuscita a sfruttare finora i vantaggi dell’intelligenza artificiale. «La mia più grande paura è che il campo dell’AI possa fare davvero del male al mondo. Se questa tecnologia prende la direzione sbagliata, diventa veramente sbagliata», ha ammesso Altman. E il pensiero va subito all’impatto che potrebbe avere sulle elezioni presidenziali del prossimo anno. Un tema che, confessa il ceo di OpenAI, «è un’area di grande preoccupazione». Mentre Altman è in audizione al senato americano, la sua azienda si prepara al lancio di un nuovo progetto. La società che ha sviluppato ChatGPT è pronta a rilasciare un altro modello di intelligenza artificiale open source, cioè aperto a contributi esterni. Secondo The Information, si tratterebbe di un nuovo modello generativo di linguaggio, proprio come ChatGPT.



    https://www.open.online/2023/05/16/i...openai-regole/
    Ultima modifica di Eridano; 23-05-23 alle 14:27

  10. #30
    Forumista storico
    Data Registrazione
    04 May 2009
    Messaggi
    41,302
     Likes dati
    1,276
     Like avuti
    2,925
    Mentioned
    10 Post(s)
    Tagged
    0 Thread(s)

    Predefinito Re: Intelligenza artificiale. La fine dell'uomo?

    AI, le leggi di Asimov sono carta straccia

    L'etica dell'intelligenza artificiale manderà definitivamente in soffitta le famose leggi della robotica di Asimov.

    13 Maggio 2023Gianluca RiccioGianluca Riccio

    L'esplosione dell'intelligenza artificiale e della classica divisione in "sette", tra gli esaltati e i catastrofisti (un po' di equilibrio mai) hanno riacceso il dibattito sull'etica dell'AI. Un tema vivo da decenni, per la verità. Fin dal concepimento della parola "robot" ci si interroga su come limitaree macchine perché non distruggano l'umanità. Do you remember? Leggi di Asimov e via ad andare.

    L'opera di Isaac Asimov e le sue leggi
    Sono l'esempio più famoso di riflessione su come limitare la tecnologia. Le leggi della robotica di Isaac Asimov, che in opere come il racconto "Runaround" o "Io, Robot", vengono incorporate in tutte le intelligenze artificiali come misura di sicurezza.

    Qualcuno si è illuso che in qualche modo avrebbero funzionato nella realtà, o ispirato soluzioni simili. Non è così, e ve la faccio breve: le leggi di Asimov non sono reali, e non esiste un modo per implementarle nella realtà. Sono già carta straccia, come vi mostra anche Midjourney.

    Ve le ricordate? Facciamo un ripasso?
    Le leggi di Asimov sono quattro:

    L'articolo prosegue dopo i link correlati
    L'incredibile DragGAN cambierà per sempre il fotoritocco
    ChatGPT, è boom digitale per gli italiani (dopo Sanremo)
    Prima legge: un robot non può recare danno a un essere umano o, per inazione, permettere che un essere umano subisca danni.
    Seconda legge: un robot deve obbedire agli ordini impartiti dagli esseri umani, a meno che tali ordini contravvengano alla Prima Legge.
    Terza legge: un robot deve proteggere la propria esistenza, purché tale protezione non contravvenga alla Prima o alla Seconda legge.
    I più appassionati lettori di Asimov sanno poi che esiste una quarta legge, introdotta nel 1985 con il romanzo "i robot e l'impero". Si chiama Legge Zero e recita così:

    Un robot non può nuocere all'umanità o, per inazione, permettere che l'umanità subisca danni.

    Ora dimenticatele.
    Pur iniziando a scrivere e ragionare negli anni '40 del secolo scorso, Isaac Asimov non capì semplicemente che sarebbe stato necessario programmare le AI con leggi specifiche per impedire loro di nuocere. Realizzò anche che queste leggi avrebbero fallito.

    La Prima per problemi etici troppo complessi per avere una semplice risposta sì o no. La Seconda per la sua stessa natura non etica: richiede ad esseri diventati senzienti di rimanere schiavi. La Terza perché comporta una stratificazione sociale permanente, con una vasta quantità di potenziale sfruttamento. E la legge Zero? Viene meno da sé, con tutte le altre.

    In sintesi: le leggi di Asimov rappresentano un interessante punto di partenza per riflettere sull'etica dell'intelligenza artificiale, ma il mondo reale richiede soluzioni più concrete e adattabili.

    Quali?
    Gli esperti stanno lavorando per garantire che l'intelligenza artificiale sia sicura ed etica, esplorando in diverse direzioni. Le 4 principali:

    Trasparenza e spiegabilità: Gli algoritmi dovrebbero essere trasparenti e spiegabili, in modo che gli utenti possano comprendere come e perché l'AI prende determinate decisioni.
    Valori umani e bias: I sistemi di AI dovrebbero essere progettati per rispettare i valori umani fondamentali e ridurre i bias indesiderati. Ciò include la formazione su set di dati diversificati e l'analisi degli effetti delle decisioni prese dall'AI su vari gruppi di persone.
    Sicurezza e affidabilità: Questa si spiega da sé. Va evitato il rischio di malfunzionamenti o attacchi informatici.
    Controllo e responsabilità: È importante stabilire chi sia responsabile delle azioni compiute dall'intelligenza artificiale, per attribuire conseguenze in caso di problemi.
    A queste "nuove leggi di Asimov" (che non sono di Asimov) vanno aggiunti regolamenti e standard etici globali: per questo serve cooperazione internazionale sullo sviluppo delle intelligenze artificiali, e non settarismo.

    Geoffrey Hinton, uno dei "papà" dell'AI, ha definito l'intelligenza artificiale come "la nuova bomba atomica". Non concordo, e non sono il solo. Potrebbe diventarlo, però, e sarebbe colpa nostra, non dell'intelligenza artificiale. Specie se la concepiamo noi per primi come una "clava" contro altri.

    Leggi di Asimov, addio. Nuove leggi, fate presto
    I primi veicoli autonomi, anzi: semi-autonomi hanno già il "potere" di uccidere persone inavvertitamente. Le armi come i droni killer possono, di fatto, uccidere addirittura agendo autonomamente. Parliamoci chiaro: attualmente l'AI non è in grado di comprendere le leggi, figuriamoci seguirle.

    L'emulazione del comportamento umano non è ancora stata ben studiata, e lo sviluppo del comportamento razionale si è concentrato su aree limitate e ben definite. Due lacune gravissime, perché permetterebbero ad un'AI senziente (cosa che al momento, sottolineo, non esiste e a dispetto di quanto dicono i suoi pigmalioni non sappiamo se esisterà) di disinterpretare qualunque indicazione. E finire, in due semplici parole, fuori controllo.

    Per questo, non so quanto tempo abbiamo. Un anno, dieci, l'eternità. So che, come fu per le leggi di Asimov serve che qualcuno risolva il problema di come prevenire i danni dell'IA agli esseri umani, e lo faccia adesso.

    Skynet è solo finzione, ma nella finzione non ci ha dato scampo. E si sa: la fantascienza non prevede il futuro, ma spesso lo ispira.

    https://www.futuroprossimo.it/2023/0...arta-straccia/
    Ultima modifica di Eridano; 23-05-23 alle 14:30

 

 
Pagina 3 di 8 PrimaPrima ... 234 ... UltimaUltima

Tag per Questa Discussione

Permessi di Scrittura

  • Tu non puoi inviare nuove discussioni
  • Tu non puoi inviare risposte
  • Tu non puoi inviare allegati
  • Tu non puoi modificare i tuoi messaggi
  •  
[Rilevato AdBlock]

Per accedere ai contenuti di questo Forum con AdBlock attivato
devi registrarti gratuitamente ed eseguire il login al Forum.

Per registrarti, disattiva temporaneamente l'AdBlock e dopo aver
fatto il login potrai riattivarlo senza problemi.

Se non ti interessa registrarti, puoi sempre accedere ai contenuti disattivando AdBlock per questo sito