Gli Small Data sono importanti per avanzare l’IA

Con Small Data si intendono dati che gli esseri umani possono osservare e elaborare personalmente. Laddove il CV di un individuo è Small Data, un database con milioni di CV è Big Data.

di Margaretta Colangelo, Danko Nikolić e Andrey Golub

Prima dei Big Data, tutto ruotava attorno agli Small Data. Le scoperte scientifiche del XIX e XX secolo sono state tutte realizzate partendo da piccoli dati. Sebbene intorno al 60-65% delle 100 maggiori innovazioni del nostro tempo si basino davvero su dati di piccole dimensioni, attualmente lo sviluppo delle IA sembra concentrarsi principalmente sui Big Data, dimenticando il valore dell’osservazione di piccoli campioni.

Per quanto l’attuale trend nell’apprendimento approfondito promuova l’utilizzo dei Big Data per ottenere una intelligenza artificiale, il più delle volte l’intelligenza artificiale diventa ancora più intelligente e potente quando è in grado di essere addestrata con Small Data. Alcune soluzioni di intelligenza artificiale basate esclusivamente su piccoli dati superano quelle basate sui big data. Altre soluzioni di intelligenza artificiale utilizzano i big data per imparare a sfruttare il vantaggio dei piccoli dati.

Possiamo ottenere una visione precisa della personalità, delle abitudini e delle motivazioni di un individuo solo ricorrendo a piccoli dati. Gli small data possono essere ricchi di significato derivato dai dati personali univoci di quella persona. L’intelligenza artificiale deve quindi poter estrarre questo significato. Una grande sfida che ci attende è la creazione di approcci di IA che siano in grado di identificare il valore nei piccoli dati.

Gli small data possono essere analizzati dall’uomo. Oltretutto, normalmente, un singolo umano genera solo piccoli dati. Pertanto, qualsiasi prodotto o servizio ottimizzato per i singoli umani deve funzionare con dati di piccole dimensioni. In definitiva, l’intelligenza artificiale deve essere adattata a una singola persona e deve imparare dal feedback proveniente esclusivamente da quella persona. Immaginate il potenziale di una IA capace di sfruttare contemporaneamente la potenza di entrambi i dati grandi e piccoli.

Una IA basata esclusivamente sugli small data per fornire una personalizzazione senza precedenti
L’intelligenza artificiale riguarda il controllo della conoscenza, non l’elaborazione dei dati. Si tratta di fornire a una macchina le conoscenze necessarie per eseguire un’attività. Per personalizzare un prodotto di moda per un singolo cliente occorre una forma di conoscenza molto specifica. Persino le raccomandazioni individuali sui prodotti comportano più big data di quanto sia ideale. Grazie agli small data è possibile passare dall’analisi analitica basata sulla media al processo decisionale immediato, dal multicast all’individualizzazione, dalla generalizzazione alla personalizzazione.

L’analisi di vestibilità di un prodotto fashion normalmente viene elaborato tramite simulazioni. Per definizione, la simulazione individualizzata non può essere raggiunta attraverso i big data perché il modello di simulazione deve incorporare il feedback dei clienti su base individuale. Questo è un lavoro per gli small data.

Una startup milanese, ELSE Corp, ha sviluppato un metodo in attesa di brevetto basato su IA ibrida per il rilevamento “best fit” (miglior fittabilità di un prodotto) a livello individuale. Il metodo è basato su piccoli dati e su un algoritmo proprietario di apprendimento automatico basato sulla ricostruzione della scansione dei piedi dei clienti in 3D, sui metadati predittivi di adattamento tra i piedi e le scarpe, e sui risultati registrati di adattamento individuale delle vere scarpe provate fisicamente dal cliente.

Invece di utilizzare la tradizionale mappatura “top down” dai big data a una persona, l’azienda ha sviluppato un approccio “dal basso verso l’alto”. Il loro algoritmo incorpora le preferenze strutturate ed il feedback di adattamento fisico di ogni singolo cliente. Questo metodo crea un micro algoritmo dedicato per ogni singolo cliente. Questo piccolo approccio ai dati implica sapere esattamente su quali dati si sta operando. L’intelligenza artificiale ELSE non acquisisce conoscenze attraverso l’apprendimento approfondito e i big data. Invece, i dati sono inseriti nell’IA direttamente dagli umani, proprio come in una GOFAI.

Il servizio di retail virtuale per il settore footwear di ELSE Corp si chiama MySize.shoes. Si inseriscono informazioni come larghezza del piede, forma della punta e tipo di arco del piede di un cliente, ovvero i metadati che l’algoritmo considera considerati “classificatori predittivi”. In seguito, i piedi del cliente vengono scansionati tramite un dispositivo di scansione 3D che crea modelli tridimensionali dei loro piedi. L’intelligenza artificiale converte quindi l’input del cliente come “stretto/ largo” nelle zone predefinite del piede, in una raccomandazione adeguata, basata su piccoli dati, del paio di scarpe disponibile con le migliori caratteristiche di vestibilità per quel cliente. Lo stesso approccio potrebbe essere utilizzato anche per generare dati ottimali da utilizzare per produrre scarpe su misura.

Una IA addestrata con Big Data per imparare a leggere gli Small Data
Di solito, l’apprendimento approfondito richiede grandi quantità di dati. In effetti, la più grande limitazione dell’apprendimento profondo è proprio la necessità di grandi quantità di dati. L’apprendimento approfondito è un metodo particolarmente eclettico. Può imparare qualsiasi cosa ma, siccome può imparare qualsiasi cosa, ha bisogno di molti dati per imparare qualcosa. Al contrario, sistemi specializzati possono imparare da piccole quantità di dati.

Un fatto inevitabile per i sistemi specializzati è che devono essere limitati a un determinato dominio di apprendimento. Ciò è dovuto al teorema del no free lunch. I sistemi specializzati sono in grado di apprendere dagli Small Data perché possiedono precisi pregiudizi induttivi. I pregiudizi induttivi rappresentano la conoscenza del mondo in cui l’apprendimento avrà luogo e sono presenti nel modello ancor prima che la formazione abbia avuto inizio. In altre parole, il modello deve già sapere come estrarre il significato da un determinato tipo di dati. Solo se un modello di apprendimento automatico ha una quantità sufficiente di questa nozione, può apprendere con successo da piccoli dati.

Gli small data sono incentrati sull’uomo. La conoscenza specialistica per l’apprendimento umano è insita nel DNA umano. Gli esseri umani, ad esempio, non possono apprendere alcun linguaggio casuale. Può solo imparare determinate strutture linguistiche, caratterizzate da nomi, verbi, etc. Al contrario, i software di apprendimento approfondito possono imparare qualsiasi linguaggio casuale. Richiedono, però, un milione di volte più esempi di quelli che necessari a un essere umano per imparare un linguaggio umano. Oltretutto, persino dopo essere stati sottoposti a un addestramento con tanto intensivo, i programmi di apprendimento approfondito faticano ancora rispetto a capire il significato di un linguaggio.

La startup di Francoforte RobotsGoMental ha sviluppato una tecnologia che trasforma qualsiasi soluzione di deep learning in un sistema lineare, capace di apprendere dagli Small Data. La società ha sviluppato una tecnologia che crea sistemi specializzati di apprendimento approfondito. Tali sistemi non possono imparare nulla. Sono limitati a un certo tipo di problema, un dominio. Possono però apprendere tutti i tipi di non-linearità anche da piccoli dati, perché sanno esattamente quali relazioni nei dati sono rilevanti per quel tipo di problema e quali vanno invece ignorate. In questo modo, diventano esperti per un determinato dominio. All’interno di quel dominio imparano rapidamente, come gli umani. È possibile creare sistemi esperti in qualsiasi applicazione industriale, come riconoscimento vocale, riconoscimento facciale, manutenzione predittiva, churn prediction, serie temporali, etc. Apparentemente, esiste un mercato enorme per questa tecnologia: il mercato della tradizionale tecnologia di deep learning è già grande. Per la natura stessa del mondo in cui viviamo, il mercato dei sistemi di apprendimento approfondito specializzati deve essere molto, molto più grande. Potrebbe essere questo il futuro del 99% dei sistemi di apprendimento approfondito.

Conclusioni
L’IA creata direttamente dai Big Data è solo un preludio a ciò che sta arrivando. Il futuro è l’intelligenza artificiale in grado di padroneggiare i piccoli dati. Tale tipo di AI è possibile e già esiste. L’IA di piccoli dati può essere creata sia “a mano” che attraverso l’apprendimento automatico che esegue un addestramento iniziale dai big data. L’optimum è combinare l’esperienza umana e la formazione guidata dai macchinari applicata simultaneamente per inserire competenze di piccoli dati nelle macchine. Gli umani hanno sempre eccelso usando piccoli dati. Ora stiamo appena iniziando a costruire macchine intelligenti in grado di sfruttare i piccoli dati per aiutarci a migliorare la civiltà a livelli mai visti prima. La padronanza dei piccoli dati è essenziale per far progredire l’intelligenza artificiale.

Questo articolo è stato scritto da Danko Nikolić, PhD, Andrey Golub, PhD e Margaretta Colangelo. La versione integrale è disponibile su LinkedIn.

Related Posts
Total
0
Share