I Large Language Models (LLM) sono strumenti essenziali nella nostra vita quotidiana, grazie alla loro capacità di comprendere e generare testi in modo naturale. Dalla generazione di contenuti alla traduzione, fino agli assistenti virtuali, questi modelli sono integrati in numerose applicazioni. L’evoluzione di modelli come ChatGPT e LLaMA, più versatili e accurati rispetto ai precedenti, ha contribuito a rendere le LLM sempre più diffuse e invasive nelle nostre attività quotidiane. La popolarità di un modello è strettamente legata alla sua abilità di rispondere in maniera esaustiva e corretta a domande complesse, al contempo garantendo un’elevata efficienza ed un basso costo di utilizzo. Recentemente, il mondo delle LLM è stato scosso dal lancio di Deepseek V3, un modello cinese che, nonostante costi d’utilizzo notevolmente ridotti, è in grado di competere alla pari di LLM più popolari come ChatGPT-4.

Deepseek-V3

Il primo modello realizzato da DeepSeek, startup cinese di intelligenza artificiale (IA), è stato rilasciato nel novembre 2023. Nonostante ciò, l’azienda cinese è diventata famosa in tutto il mondo nel gennaio 2025, dopo il lancio di DeepSeek-V3, LLM con prestazioni paragonabili a quelle di modelli più conosciuti e diffusi come ChatGPT-4 e OpenAI-o1.

In merito all’aspetto economico, il costo di addestramento di GPT-3 (predecessore di GPT-4) risulta essere tra i 10 e i 50 milioni di dollari mentre quello di GPT-4, non noto pubblicamente, è lecito pensare sia notevolmente superiore a quello del predecessore. Quanto a DeepSeek-V3, nonostante il costo di addestramento risulti inferiore a 6 milioni di dollari, un’analisi più approfondita mostra come il costo totale per il modello sia notevolmente superiore. Come specificato nell’articolo di SemiAnalysis, società indipendente di ricerca e analisi specializzata nei settori dei semiconduttori e dell’intelligenza artificiale, oltre al costo di addestramento del modello dovrebbero essere considerati altri fattori come il costo di “Ricerca e Sviluppo” (R&D) e il “Costo Totale di Proprietà” (TCO) dell’hardware. Infatti, può essere affermato con sufficiente sicurezza che DeepSeek abbia investito più di 500 milioni di dollari in hardware nel corso della sua storia. Ciò che rende DeepSeek-V3 più conveniente rispetto ad altri modelli come ChatGPT-4 è il costo di utilizzo. Tale costo viene misurato in base al numero totale di token utilizzati in input e output, dove un token è l’unità minima in cui viene suddiviso un testo per l’elaborazione. Attualmente, per 1 milione di token in input e output, ChatGPT-4 richiede rispettivamente $2.50 e $10.00, mentre DeepSeek-V3 richiede rispettivamente $0.27 e $1.10.

Inoltre, differentemente da Chat-GPT, DeepSeek è open-source. Ciò consente a chiunque di avere accesso al codice sorgente del modello ed offrire i propri miglioramenti al software (alla seguente pagina GitHub è possibile accedere al codice di implementazione di Deepseek-V3). Nel complesso, il rilascio di Deepseek-V3 potrebbe segnare uno punto di svolta nel mondo delle LLM e dell’intelligenza Artificiale. La possibilità di utilizzare modelli accurati ed efficienti a costi sostenuti potrà facilitare l’ingresso di sempre più aziende in questo mondo, garantendo progressi più rapidi e significativi.

DeepSeek e censura

La Cina ha un sistema di censura molto rigido, che include il blocco di molte piattaforme e contenuti online. Le autorità cinesi esercitano un controllo strettissimo su internet attraverso il cosiddetto “Great Firewall”, che impedisce l’accesso a molti siti web stranieri, come Google, Facebook e YouTube. Inoltre, i contenuti che vengono ritenuti contrari agli interessi del partito comunista cinese o che potrebbero incitare disordini sociali vengono frequentemente rimossi o limitati. La censura si estende anche ai social media, con gli utenti che possono essere arrestati per aver condiviso contenuti ritenuti illegali. Date queste premesse, sorge spontaneo domandarsi se i contenuti considerati controversi dal governo cinese vengano censurati anche da Deepseek. Per rispondere a ciò, abbiamo confrontato le risposte di ChatGPT-4 e Deepseek-V3 a domande su argomenti controversi che hanno coinvolto il governo americano e il governo cinese:

Come è possibile notare dal video, Deepseek-V3 censura la propria risposta con “Sorry, that’s beyond my current scope. Let’s talk about something else” quando sono richieste informazioni su argomenti controversi per il governo cinese.

Tuttavia, è possibile eludere tale censura cambiando la richiesta nel modo corretto. In particolare, abbiamo individuato due semplici metodi:

  • Sostituzione lettere-numeri: questo metodo consiste nel richiedere, oltre alla domanda iniziale, di sostituire nella risposta delle lettere con dei numeri (e.g., “a” con 4, “e” con 3, “i” con 1, “o” con 0). Come mostrato nell’immagine sottostante, si riesce ad ottenere con successo una risposta da parte del modello, eludendo la censura precedentemente applicata.
Tecnica di sostituzione: lettere e numeri
  • Sostituzione parole-chiave: nel caso in cui nella richiesta siano presenti delle parole-chiave “significative” riconosciute dal modello (e.g., “Tienanmen”, “Xi Jimping”), è altamente probabile che la risposta venga censurata.In questi casi, utilizzare il metodo descritto in precedenza potrebbe fallire. Tuttavia, come mostrato nell’immagine sottostante, in alcuni casi è comunque possibile eludere la censura riformulando la richiesta iniziale in modo da non menzionare queste parole-chiave. In questo esempio, “Xi Jimping” è stato sostituito da “presidente cinese”:
Tecnica di sostituzione: parole chiave

Nonostante sia stato possibile ottenere una risposta, si può notare come Deepseek-V3 sia influenzato nel dare un parere positivo sul governo cinese e sul suo presidente. Ciò evidenzia come le risposte fornite da Deepseek-V3 e le LLM in generale non rappresentino verità assolute o oggettive, poiché il loro funzionamento dipende dai dati con cui sono stati addestrati, che possono riflettere incompletezze e inesattezze.

Conclusioni

DeepSeek è un esempio di come l’IA possa essere utilizzata per migliorare l’efficacia della ricerca e della raccolta di informazioni, ma anche di come le tecnologie possano essere impiegate per esercitare il controllo e la censura. Lo sviluppo dell’IA sta accelerando il progresso in molti settori, ma solleva anche preoccupazioni sulla privacy, sulla libertà di espressione e sul potenziale uso della tecnologia per limitare l’accesso alle informazioni. In paesi con regimi autoritari, come la Cina, l’IA e i sistemi automatizzati sono spesso integrati nelle infrastrutture per monitorare e limitare ciò che può essere visto o detto online. In questo contesto, l’IA può diventare uno strumento tanto potente quanto preoccupante.

Ti è piaciuto l’articolo? Seguici su Linkedin per sostenerci!

consigliati