Nel gennaio 2026, la piattaforma di Elon Musk si è trovata al centro di una tempesta mediatica globale sulla trasparenza algoritmica. La decisione di pubblicare il codice sorgente del proprio algoritmo di raccomandazione su GitHub è arrivata come un fulmine a ciel sereno, ma non per caso: dietro questa apertura improvvisa si cela una multa salata da 120 milioni di euro inflitta dall’Unione Europea. Una cifra che ha costretto X a compiere un passo formale verso l’open source per allinerarsi alle richieste stringenti del Digital Services Act. Ma questa mossa rappresenta davvero un avanzamento verso una maggiore responsabilità delle piattaforme, o si tratta semplicemente di una strategia comunicativa ben calibrata per placare le pressioni normative senza rivelare i reali meccanismi operativi del social network? La domanda è rimasta sospesa nell’aria mentre esperti, ricercatori e utenti comuni hanno iniziato a scandagliare migliaia di righe di codice pubblicate sul repository.
La pubblicazione del codice ha senza dubbio acceso i riflettori sulla struttura interna dell’algoritmo di X. Ora chiunque può analizzare come la piattaforma valuta le interazioni tra gli utenti, applica modelli di apprendimento automatico e ordina i contenuti secondo criteri di rilevanza e diversità. Al centro di questo sistema spicca il ruolo di Grok, un trasformatore progettato per identificare pattern di pertinenza e ottimizzare la selezione dei contenuti mostrati nel feed. Non meno importante, la logica degli esclusori è finalmente leggibile. Questi filtri automatici eliminano post provenienti da account bloccati, contenuti con parole chiave silenziate, materiale violento o spam. Una funzionalità che molti sospettavano esistesse, ma che ora può essere analizzata da ricercatori indipendenti e sviluppatori di tutto il mondo per verificarne l’efficacia e l’imparzialità.

Tuttavia, se da un lato la pubblicazione del codice ha rappresentato un passo avanti verso l’open source, dall’altro ha evidenziato profonde ambiguità che ancora caratterizzano il concetto di trasparenza in ambito algoritmico. La comunità scientifica e i giuristi sottolineano come la semplice visibilità del codice non equivalga a una reale comprensione del funzionamento della piattaforma. Restano infatti nascosti elementi cruciali: i dati utilizzati per il training dei modelli di machine learning, i criteri precisi che guidano le decisioni algoritmiche in situazioni edge case, e soprattutto le eventuali differenze tra il modello pubblicato su GitHub e quello effettivamente in produzione sui server di X. Questo gap informativo suggerisce una strategia aziendale ben precisa: rispondere formalmente alle richieste del Digital Services Act per ridurre la pressione normativa, senza però mettere a rischio i vantaggi competitivi e la sicurezza operativa della piattaforma.
Non mancano poi le preoccupazioni legate alla sicurezza e alla manipolazione dei contenuti. La disponibilità del codice su GitHub apre la porta a una doppia possibilità: da un lato, attori malintenzionati potrebbero studiare l’algoritmo per ottimizzare strategie di manipolazione e amplificare la disinformazione, identificando vulnerabilità o punti deboli nel sistema di ranking. Dall’altro, la stessa apertura favorisce un controllo peer-to-peer, consentendo a esperti di sicurezza informatica di individuare bug, backdoor o comportamenti anomali e proporre miglioramenti concreti. È un equilibrio delicato, che richiede un monitoraggio costante e una collaborazione trasparente tra piattaforma, comunità tecnica e autorità regolatorie. L’Unione Europea, che ha imposto la multa originaria, osserverà con attenzione se X manterrà aggiornato il repository pubblico in linea con le modifiche effettive al codice in produzione, o se si tratterà di un’operazione di facciata destinata a rimanere statica nel tempo.
La vicenda si inserisce in un contesto più ampio di crescente pressione sulle big tech per rendere più trasparenti i meccanismi che governano la distribuzione dei contenuti online. Il Digital Services Act europeo rappresenta uno dei tentativi normativi più ambiziosi al mondo per imporre accountability alle piattaforme digitali, con sanzioni che possono raggiungere percentuali significative del fatturato globale delle aziende inadempienti. La pubblicazione dell’algoritmo di X potrebbe rappresentare un precedente importante, spingendo altri social network a seguire la stessa strada. O potrebbe al contrario dimostrare che l’open source di un algoritmo senza i dati di training e senza garanzie di corrispondenza con il codice in produzione è poco più di un gesto simbolico, incapace di garantire quella trasparenza sostanziale che utenti e regolatori chiedono a gran voce.



