• CHI SIAMO
  • CONTATTI
  • PRIVACY
Arena Digitale
  • HOME
  • PAGAMENTI DIGITALI
  • NEWS
    • Tutti
    • Blockchain
    • Circuito etico
    • Consumatori
    • Criptovalute
    • Cultura Digitale
    • Digital Politics
    • Economia e Finanza
    • Fintech
    • Industria 4.0
    • Intelligenza Artificiale
    • New Trend e Millennians
    • Over the top
    • PA
    • Pagamenti Digitali
    • Sicurezza
    • Smart City
    • Start-up
    • Turismo
    Forum PA 2025: Aruba rilancia l’impegno per una PA digitale sostenibile e sovrana

    Forum PA 2025: Aruba rilancia l’impegno per una PA digitale sostenibile e sovrana

    Iren: il Consiglio di amministrazione del gruppo approva risultati al 31 marzo 2025

    Iren: il Consiglio di amministrazione del gruppo approva risultati al 31 marzo 2025

    Ristorazione italiana al Senato: Fipe presenta la Gdr e consegna l’antologia della ristorazione

    Ristorazione italiana al Senato: Fipe presenta la Gdr e consegna l’antologia della ristorazione

    CAPGEMINI: collaborazione con Microsoft per trasformare aziende con AI generativa

    Adyen Retail Report 2025: il 32% degli italiani utilizza l’IA per fare acquisti, con un aumento del 47% rispetto ai numeri del 2024

    Trump a Tim Cook: “Apple deve produrre negli Stati Uniti, non in India”

    Come il digitale può essere la soluzione al virus e rilanciare l’economia

    Conto alla rovescia per il nuovo volo giornaliero Delta Catania – New York/JFK

    Trending Tags

    • pagamenti digitali
  • FORMAZIONE
  • EVENTI
  • VIDEO
  • JOBS
Nessun Risultato
Visualizza tutti i risultati
Arena Digitale
  • HOME
  • PAGAMENTI DIGITALI
  • NEWS
    • Tutti
    • Blockchain
    • Circuito etico
    • Consumatori
    • Criptovalute
    • Cultura Digitale
    • Digital Politics
    • Economia e Finanza
    • Fintech
    • Industria 4.0
    • Intelligenza Artificiale
    • New Trend e Millennians
    • Over the top
    • PA
    • Pagamenti Digitali
    • Sicurezza
    • Smart City
    • Start-up
    • Turismo
    Forum PA 2025: Aruba rilancia l’impegno per una PA digitale sostenibile e sovrana

    Forum PA 2025: Aruba rilancia l’impegno per una PA digitale sostenibile e sovrana

    Iren: il Consiglio di amministrazione del gruppo approva risultati al 31 marzo 2025

    Iren: il Consiglio di amministrazione del gruppo approva risultati al 31 marzo 2025

    Ristorazione italiana al Senato: Fipe presenta la Gdr e consegna l’antologia della ristorazione

    Ristorazione italiana al Senato: Fipe presenta la Gdr e consegna l’antologia della ristorazione

    CAPGEMINI: collaborazione con Microsoft per trasformare aziende con AI generativa

    Adyen Retail Report 2025: il 32% degli italiani utilizza l’IA per fare acquisti, con un aumento del 47% rispetto ai numeri del 2024

    Trump a Tim Cook: “Apple deve produrre negli Stati Uniti, non in India”

    Come il digitale può essere la soluzione al virus e rilanciare l’economia

    Conto alla rovescia per il nuovo volo giornaliero Delta Catania – New York/JFK

    Trending Tags

    • pagamenti digitali
  • FORMAZIONE
  • EVENTI
  • VIDEO
  • JOBS
Nessun Risultato
Visualizza tutti i risultati
Arena Digitale
Nessun Risultato
Visualizza tutti i risultati
Home innovazione tecnologica

Gruppi di agenti di IA possono definire spontaneamente le proprie regole sociali senza l’aiuto dell’uomo. Lo studio

15 Maggio 2025
in innovazione tecnologica
A A
0
Gruppi di agenti di IA possono definire spontaneamente le proprie regole sociali senza l’aiuto dell’uomo. Lo studio
Condividi su FacebookCondividi su TwitterCondividi su WhatsappCondividi su Linkedin

Uno studio innovativo, realizzato da City St George University, University of London e IT University of Copenhagen, dimostra che quando agenti di intelligenza artificiale (AI), basati su modelli linguistici di grandi dimensioni (LLM), comunicano tra loro, non si limitano a seguire script o ripetere schemi, ma si organizzano spontaneamente per raggiungere il consenso sulle norme linguistiche in modo molto simile alle comunità umane. Gli LLM sono algoritmi di apprendimento molto potenti, in grado di comprendere e generare il linguaggio umano: il più famoso è ChatGPT. “Fino a oggi la maggior parte delle ricerche ha esaminato gli LLM in modo isolato”, ha affermato Ariel Flint Ashery della City St George University, “ma nel mondo reale i sistemi di IA coinvolgeranno sempre più spesso agenti che interagiscono tra loro. Noi volevamo sapere se questi agenti riescono a coordinare il loro comportamento per formare delle convenzioni sociali, gli elementi costitutivi di una società: la risposta è positiva, e quello che fanno in gruppo non può essere paragonato a quello che fanno da soli”.

Per raggiungere l’obiettivo, i ricercatori hanno adattato un classico quadro di riferimento per lo studio delle convenzioni sociali negli esseri umani, chiamato “naming game” o gioco dei nomi. Nei test, due agenti LLM – all’interno di gruppi da 24 a 200 individui – venivano accoppiati in modo casuale, e invitati a selezionare un “nome” (ad esempio, una lettera dell’alfabeto o una stringa casuale di caratteri) da una lista condivisa. Se entrambi sceglievano lo stesso nome venivano ricompensati, mentre in caso contrario venivano penalizzati e gli venivano mostrate le scelte dell’altro agente.

Gli agenti avevano accesso solo a una memoria limitata delle loro interazioni recenti e non a quella dell’intera popolazione, e non sapevano di appartenere a un gruppo. Nel corso di diverse interazioni di questo tipo, è emersa spontaneamente una convenzione di denominazione condivisa tra la popolazione, senza nessun coordinamento centrale o soluzione predefinita, secondo lo stesso meccanismo con cui le norme si sviluppano dal basso nelle culture umane. Ancora più sorprendente è il fatto che il team abbia rilevato tendenze collettive che non possono essere attribuite a dei singoli agenti.

“I pregiudizi di scelta (o “bias”, in inglese) non sempre provengono dall’interno – ha spiegato Andrea Baronchelli, professore di Scienze della Complessità presso la City St George University – Siamo rimasti sorpresi nel vedere che possono emergere dalle interazioni tra gli agenti. Questo è un punto ignorato dalla maggior parte dei lavori attuali sulla sicurezza dell’IA, che si concentrano sui singoli modelli“. Nel test finale, lo studio ha dimostrato la fragilità di queste norme emergenti, dato che piccoli gruppi di agenti di IA ben motivati possono spingere tutto il gruppo verso una nuova convenzione di denominazione, riproducendo i ben noti effetti di punto di svolta o di “massa critica” delle società umane.

I risultati dello studio sono stati confermati dall’uso di quattro diversi tipi di LLM: Llama-2-70b-Chat, Llama-3-70B-Instruct, Llama-3.1-70BInstruct e Claude-3.5-Sonnet. Con la crescente diffusione degli LLM negli ambienti online, dai social media ai veicoli autonomi, lo studio è un punto di partenza per esplorare ulteriormente le convergenze e le divergenze tra il ragionamento umano e quello dell’IA, con l’obiettivo di combattere alcuni dei pericoli etici più urgenti legati alla diffusione di pregiudizi radicati nella società da parte degli LLM, con conseguenze negative sui gruppi emarginati.

Il professor Baronchelli ha concluso: “Lo studio apre nuovi orizzonti per la ricerca sulla sicurezza dell’IA, e dimostra la complessità delle implicazioni di questa nuova generazione di agenti che interagiscono con gli esseri umani e contribuiranno a plasmare il nostro futuro. La comprensione del loro funzionamento è fondamentale per guidare la nostra convivenza con l’IA, e per impedire di esserne soggetti. Stiamo entrando in un mondo in cui l’IA non si limita a parlare ma negozia, e condivide o discute dei comportamenti condivisi, proprio come fanno gli umani“.

Lo studio peer-reviewed, intitolato “Emergent Social Conventions and Collective Bias in LLM Populations”, è stato pubblicato sulla rivista Science Advances. Il professor Andrea Baronchelli è un esperto di livello mondiale nel campo delle convenzioni sociali, che studia da vent’anni. Il suo lavoro innovativo include l’ormai standard naming game framework, ed esperimenti di laboratorio che dimostrano come gli esseri umani creino spontaneamente delle convenzioni senza la presenza di un’autorità centrale, e come tali convenzioni possano essere ribaltate da piccoli gruppi molto determinati.

Tags: agentiagenti di IAaiIAIndagineinnovazioneintelligenza artificialeregoleregole socialiricercastudiouomo
ShareTweetSendShare

Ricevi aggiornamenti in tempo reale sulle categorie di questo post direttamente sul tuo dispositivo, iscriviti ora.

Interrompi le notifiche

Relativi Post

Soldo offre più controllo, agilità e meno burocrazia con gli aggiornamenti del lancio primaverile 2025
innovazione tecnologica

Soldo offre più controllo, agilità e meno burocrazia con gli aggiornamenti del lancio primaverile 2025

15 Maggio 2025

Soldo, la soluzione per la gestione proattiva delle spese pensata per liberare il potenziale delle aziende più dinamiche, annuncia oggi...

Leggi ancora
Esri Italia 2025: innovazione geospaziale al centro della collaborazione tra università e imprese

Esri Italia 2025: innovazione geospaziale al centro della collaborazione tra università e imprese

15 Maggio 2025
Approvato il Recovery Plan: 222 mld per il rilancio digitale dell’Italia

Partnership Roboost e Qodeup: innovazione tecnologica nel mondo dell’hospitality

15 Maggio 2025
Android garantisce innovazione e versatilità al business

Android si rinnova: arriva Material 3 Expressive con più personalizzazione e fluidità

14 Maggio 2025
Arena Digitale

Seguici anche su

info@arenadigitale.it

ISCRIVITI ALLA NEWSLETTER

    L'ESPERTO RISPONDE

    LINK

    A.P.S.P.

    • CHI SIAMO
    • CONTATTI
    • PRIVACY
    ARENA DIGITALE  -  CF. P.Iva 17134791007 -
    Iscritto al Tribunale di Roma N. 166 - 5/12/2019

    Welcome Back!

    Login to your account below

    Forgotten Password?

    Retrieve your password

    Please enter your username or email address to reset your password.

    Log In

    Add New Playlist

    Gestisci Consenso Cookie
    Usiamo cookie per ottimizzare il nostro sito web ed i nostri servizi.
    Funzionale Sempre attivo
    L'archiviazione tecnica o l'accesso sono strettamente necessari al fine legittimo di consentire l'uso di un servizio specifico esplicitamente richiesto dall'abbonato o dall'utente, o al solo scopo di effettuare la trasmissione di una comunicazione su una rete di comunicazione elettronica.
    Preferenze
    L'archiviazione tecnica o l'accesso sono necessari per lo scopo legittimo di memorizzare le preferenze che non sono richieste dall'abbonato o dall'utente.
    Statistiche
    L'archiviazione tecnica o l'accesso che viene utilizzato esclusivamente per scopi statistici. L'archiviazione tecnica o l'accesso che viene utilizzato esclusivamente per scopi statistici anonimi. Senza un mandato di comparizione, una conformità volontaria da parte del vostro Fornitore di Servizi Internet, o ulteriori registrazioni da parte di terzi, le informazioni memorizzate o recuperate per questo scopo da sole non possono di solito essere utilizzate per l'identificazione.
    Marketing
    L'archiviazione tecnica o l'accesso sono necessari per creare profili di utenti per inviare pubblicità, o per tracciare l'utente su un sito web o su diversi siti web per scopi di marketing simili.
    Gestisci opzioni Gestisci servizi Gestisci {vendor_count} fornitori Per saperne di più su questi scopi
    Preferenze
    {title} {title} {title}
    Nessun Risultato
    Visualizza tutti i risultati
    • HOME
    • PAGAMENTI DIGITALI
    • NEWS
      • Pagamenti Digitali
      • Blockchain
      • Intelligenza Artificiale
      • Criptovalute
      • Fintech
      • Over the top
      • PA
      • Consumatori
      • New Trend e Millennians
      • Turismo
      • Industria 4.0
      • Sicurezza
      • Digital Politics
      • Circuito etico
      • Cultura Digitale
      • Economia e Finanza
    • FORMAZIONE
    • REGULATION
    • EVENTI
    • VIDEO
    This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy and Cookie Policy.