Secondo quanto riportato da Reuters, DeepSeek, una startup cinese, ha lanciato modelli di intelligenza artificiale che afferma possano competere con quelli delle principali aziende statunitensi, ma a una frazione del costo.
Il modello DeepSeek-V3 ha richiesto meno di 6 milioni di dollari in risorse computazionali e ha portato l’assistente AI dell’azienda al primo posto sull’App Store di Apple negli Stati Uniti, superando ChatGPT. Ciò ha suscitato dubbi sugli ingenti investimenti delle aziende tecnologiche statunitensi, con ripercussioni anche sul valore delle azioni di grandi player come Nvidia.
I modelli DeepSeek-V3 e DeepSeek-R1 sono stati riconosciuti per la loro qualità ed efficienza, riducendo il divario tra le capacità AI statunitensi e cinesi. Tuttavia, persistono scetticismi sul loro successo, con accuse di utilizzo di chip avanzati non dichiarati e costi di addestramento superiori a quelli comunicati.
Questo il commento di Filip Mazan, Senior Manager of Advanced Threat Detection and AI Research di ESET: “DeepSeek ha rapidamente conquistato una posizione di rilievo a livello globale, attirando migliaia di utenti con il nuovo modello di AI, grazie alle capacità avanzate e a un abbonamento conveniente. Tuttavia, sebbene l’innovazione nell’AI rappresenti un passo significativo, è fondamentale approcciarsi a questi strumenti con cautela.
Questa accessibilità ha un costo significativo: la privacy. Secondo l’informativa di DeepSeek, i dati dell’app vengono archiviati su server in Cina, includendo chat, testo, audio, prompt e file caricati, come immagini o PDF. È consigliabile evitare di caricare informazioni sensibili, siano esse personali o lavorative. Anche domande apparentemente innocue su salute, politica o questioni quotidiane potrebbero essere compromesse. Sebbene questa precauzione sembri ovvia, vale per tutte le piattaforme in cui si condividono dati privati, inclusi i servizi come ChatGPT di OpenAI. La localizzazione dei dati in Cina solleva preoccupazioni su come possano essere utilizzati o monitorati senza il nostro consenso.
La combinazione di accessibilità e funzionalità avanzata espone a nuovi rischi. Il modello di apprendimento automatico di DeepSeek, R1, seppur innovativo, può essere vulnerabile a manipolazioni. Attori malintenzionati, inclusi criminali informatici e gruppi sponsorizzati, potrebbero sfruttare queste capacità per ottimizzare malware, ingegnerizzare dispositivi dannosi o generare contenuti deepfake senza restrizioni. In mano a soggetti malintenzionati, questi strumenti potrebbero manipolare l’opinione pubblica o influenzare il pensiero politico, trasformandosi in armi di distruzione di massa, come già accade sui social media.”