L'IA generativa sta finalmente realizzando la promessa dei big data
24 ott, 2025
Bob O'Donnell, commentatore di Bloomberg e CNBC, sulla democratizzazione dell'analisi dei dati e sulle conseguenze sui sistemi di memorizzazione
Chi segue da tempo le tendenze del settore delle grandi tecnologie ricorderà senza dubbio il concetto di "big data". L'idea era che le aziende avrebbero riunito tutte le varie fonti di dati a cui avevano accesso (tradizionali documenti d'ufficio ed e-mail, dati sui processi aziendali, risultati di vendita, database dei clienti, video, registri delle chat e altro ancora) e poi avrebbero sfruttato tutti quei dati per ricavare informazioni significative per potenziare le loro organizzazioni.
In teoria, il concetto era valido e le aspettative erano alte. Era inevitabile che si nascondessero frammenti di informazioni utili e che si sarebbero manifestate molte intuizioni inaspettate, man mano che tutte le varie fonti di dati venivano combinate in quello che i sostenitori ritenevano sarebbe stato un potente miscuglio di significati. Nella pratica, purtroppo, i risultati sono stati molto diversi.
In primo luogo, si è rivelato molto più difficile organizzare i dati di un'azienda in una struttura che consentisse di combinare o confrontare le varie fonti in modo significativo. Non solo si sono verificati problemi con operazioni come l'unione di dati strutturati e non strutturati, ma si sono riscontrate anche difficoltà nella riformattazione, nell'importazione, nel collegamento e nell'esecuzione di altre forme di gestione dei dati.
Ciò che si è rivelato ancora più impegnativo, tuttavia, è stato cercare di effettuare analisi sugli archivi dati a cui si aveva accesso. Si è scoperto che solo coloro che avevano una formazione altamente specializzata in strumenti avanzati di analisi dei dati, ovvero gli esperti di SQL, potevano mettere insieme i comandi molto complessi richiesti per attingere a questa vasta quantità di dati. Sfortunatamente, molte di queste persone non sapevano quali tipi di query potessero generare le intuizioni inaspettate promesse dai big data. Gli imprenditori generici che avevano una certa idea di queste questioni non riuscivano a formulare facilmente le query e molti sforzi finivano sostanzialmente persi nella traduzione tra i due gruppi.
Con la crescente diffusione dell'intelligenza artificiale (IA) generativa, che è estremamente efficace nel trovare modelli e generare idee a partire da un'enorme base di dati, la situazione ha iniziato a cambiare. Inserendo i dati di un'organizzazione in un modello di IA, addestrando un modello personalizzato o personalizzando un modello LLM esistente, le organizzazioni sono finalmente in grado di creare il gigantesco archivio dati che è sempre stato concepito per essere al centro delle query sui big data. Inoltre, le semplici interfacce in stile chatbot che sfruttano questi modelli sono ora facilmente accessibili a tutti i livelli dell'organizzazione. Il risultato netto è che la promessa originale dei big data sta finalmente prendendo forma. Dai venditori junior che approfondiscono un'intuizione su una tendenza che pensano di iniziare a vedere nel settore ai dirigenti di alto livello che cercano dashboard di ampio respiro che combinino determinate metriche chiave, le persone in tutte le organizzazioni sono ora in grado di sfruttare l'IA generativa per ottenere un'enorme gamma di informazioni sulle aziende.
Le implicazioni per i sistemi di memorizzazione dei dati all'interno di un'organizzazione sono enormi. Mentre in passato alcune organizzazioni potrebbero aver scartato o reso offline determinate fonti di dati a causa del loro limitato valore percepito, c'è una crescente consapevolezza che qualsiasi fonte di dati potrebbe finire per aiutare a scoprire nuove intuizioni e tendenze impreviste. Di conseguenza, le aziende non solo si assicurano di conservare tutti i dati che generano, ma li rendono anche tutti disponibili.
Uno dei principali fattori che hanno favorito questa tendenza sono le care e vecchie unità disco magnetiche tradizionali. Grazie a prodotti tecnologicamente avanzati come MozaicTM di Seagate, ora è possibile inserire 3 TB di dati su un singolo piatto all'interno di un'unità disco. L'espansione in un sistema di archiviazione di tipo rack in un data center aziendale o in un sito di co-location consente di convertire fino a 32 PB di memoria in un singolo spazio rack largo 19" e alto 73" (42U). Abilitando questi tipi di capacità di memorizzazione, le organizzazioni possono archiviare in modo molto efficiente grandi quantità di dati, il che consente loro di consolidare numerose unità di capacità inferiore in sistemi più piccoli e più efficienti dal punto di vista energetico, garantendo loro ampio spazio per un'ulteriore crescita.
Considerando il quadro generale, questi tipi di unità disco ad alta capacità si adattano perfettamente a un'architettura di memorizzazione complessiva. Le organizzazioni continueranno a utilizzare unità SSD ad alta velocità per memorizzare le versioni più recenti dei loro modelli di IA generativa e altre applicazioni in cui l'importanza della velocità di accesso alla memoria supera le esigenze di capacità. Allo stesso modo, altri tipi di unità SSD saranno probabilmente sfruttati per applicazioni come chatbot IA, memorizzazione di query rapide e altre applicazioni moderatamente impegnative. Tuttavia, per la memorizzazione dei dati di uso generale di molte delle fonti che alimentano questi modelli di intelligenza artificiale personalizzati, le unità disco ad alta capacità forniscono un set ottimale di caratteristiche che si adattano molto bene all'applicazione.
Un altro fattore critico è la posizione di questi dispositivi di memorizzazione dei dati. Per motivi di costi e sicurezza, la maggior parte delle organizzazioni conserva gran parte dei propri dati dietro il proprio firewall anziché nel cloud. Ciò è particolarmente vero per alcune delle fonti di dati meno accessibili che ora possono essere integrate più facilmente nei modelli di IA grazie ai nuovi strumenti di addestramento e personalizzazione dei modelli. Man mano che le organizzazioni iniziano a sviluppare i propri modelli di IA, si è assistito a una grande rinascita nella creazione di una propria infrastruttura IA interna per addestrare, personalizzare e ospitare alcuni di questi modelli. Società come Dell, HPE, Lenovo e Cisco stanno registrando un forte aumento della domanda di server dotati di GPU progettati per le aziende e Nvidia da diverso tempo sta promuovendo l'ascesa delle fabbriche di IA a livello aziendale. Il risultato è un rinnovato interesse nella creazione di data center aziendali con tutte le risorse di elaborazione, rete e memorizzazione che ciò comporta.
Con tutti questi elementi hardware che si integrano perfettamente, uniti alle capacità in rapida espansione e al crescente utilizzo di modelli e strumenti di IA generativa, il potenziale per il tipo di visione big data di informazioni significative che ci era stata inizialmente promessa è finalmente arrivato. Anche se non tutti gli sforzi porteranno necessariamente a intuizioni magiche, è già chiaro che uno dei risultati più sorprendenti e benefici dell'utilizzo dell'IA generativa, ovvero la vera democratizzazione dell'analisi dei dati, è già qui e sta iniziando a farsi notare.
Volete dare vita alla vostra visione sui big data? Parlate con un esperto per scoprire come.
President and chief analyst of TECHnalysis Research, Bob O’Donnell is a regular guest on Yahoo Finance, Bloomberg and CNBC.
Perché i dati sono la risorsa che definisce l'economia dell'IA