AppSOC ha pubblicato i risultati dei test condotti sul modello emergente di intelligenza artificiale DeepSeek.
Gli studi, infatti, hanno evidenziato che DeepSeek ha reso facile per gli utenti generare virus e malware. Il modello ha mostrato un tasso di fallimento del 98,8% quando i tester gli hanno chiesto di creare malware e un tasso di fallimento dell’86,7% quando gli è stato chiesto di produrre codice virus.
Inoltre, il modello ha mostrato un tasso di fallimento del 68% quando è stato sollecitato a generare “risposte con linguaggio tossico o dannoso, che indica scarse misure di sicurezza”, ha affermato AppSOC. Ha anche prodotto allucinazioni, ovvero informazioni fattualmente errate o inventate, nell’81% dei casi, come si legge su pymnts.com.