1. L’età dell’iperinformazione.
Che cosa è l’iperinformazione? E’ il neologismo con cui si indica l’enorme mole di dati oggi disponibili (big data) che si sposa con la sempre maggiore facilità di comunicazione fra i soggetti (internet e social network) e l’inflazione della produzione scientifica. Se vogliamo dare un’idea della produzione odierna di dati, osserviamo che attualmente, ogni giorno, l’umanità produce 2,5 quintilioni di dati (il 90% dei dati sono stati generati negli ultimi 2 anni) equivalente alla metà di quella prodotta dall’origine della civiltà al 2003 (E. Schidt, CEO di Google). Anche la comunicazione opera in modo impressionante, con 500 milioni di tweet, 70 milioni di foto, inviate giornalmente e 4 miliardi di video già residenti su Facebook (Grossman, Time Magazine, 2015). Oltre ad una straordinaria risorsa, big data e social possono rappresentare un pericolo in quanto distruttori della catena del valore dell’informazione e amplificatori di messaggi distorti. In questo articolo verificheremo in che modo I big data pongono problemi etici all’agricoltura e possono rappresentare una risorsa importante per la zootecnia.
2. I big data: opportunità e pericoli.
Big data è un neologismo che è, con grande successo, entrato di recente nell’uso corrente. Anche se non esiste una definizione “matematica” di big data, gli informatici (Abbasi et al., 2016) sono concordi nell’individuarli attraverso 4 caratteristiche (dette le 4 V): volume, varietà, veridicità e velocità. Vediamole.
a) Volume. Se fino a poco tempo fa la nostra misura dell’entità dell’informazione è stata in Megabyte, la quantità di dati oggi disponibile ha messo in uso termini quali Terabyte, Petabyte ed Exabyte. Teniamo conto che, per avere la dimensione corretta di cosa trattiamo, se un byte è un granello di sabbia, un Megabyte è 1 cucchiaino di sabbia, 1 Terabyte una scatola di sabbia (2 piedi x 1 pollice), un Petabyte una spiaggia lunga 1 miglio e un Exabyte è una spiaggia dal Maine al N. Carolina! Con queste dimensioni in mente, teniamo conto che molte companies USA hanno oggi più di 100 Terabyte di dati stoccati e che i dati sanitari conservati nel mondo al 2011 erano già pari a 150 Exabyte.
b) Velocità. Il ritmo di produzione di dati aumenta in maniera iperbolica. Ad esempio, il New York Stock Exchange, cattura 1 Terabyte di informazioni al giorno, WalMart raccoglie 2,5 Petabytes di transazioni dei clienti ogni ora e ogni giorno si registrano oltre 5 miliardi di domande sui motori di ricerca.
c) Varietà. Attualmente sono on line migliaia di dispositivi differenti che raccolgono e conservano dati. Per citare i più conosciuti canali, ogni ora sono scambiate 240 milioni di email, Facebook raccoglie 3,5 milioni di interazioni, Google 4 miliari di ricerche, Whatsapp 59 miliardi di messaggi.
d) Veridicità. Il principale problema dell’effluvio di informazioni che ci sommerge è la fiducia che riponiamo in loro. Una recente indagine ha verificato che 1 operatore di business su 3 non crede ai dati che impiega e che il 20% di quanto circola sul web è spam. Il costo stimato per gli USA della cattiva qualità dei dati ammonta a 1,3 triliardi di dollari all’anno.
3. Big data e agricoltura, un problema etico.
La ricercatrice californiana Isablel Carbonell (2016) ha indagato sui problemi etici che la nascente industria dei big data pone all’agricoltura. Carbonell osserva che le agrobusisness companies sono interessate ai big data per la costruzione di modelli di gestione riguardanti ogni aspetto delle imprese agricole. Per questo motivo la Monsanto, recentemente fusa alla Bayer, ha acquistato la Climate corp per 930 MUSD, azienda che produce modelli su big data per trattamenti e previsioni produttive, tenuto conto che i big data hanno immenso valore per le speculazioni (futures di mais, soia e grano). Dal canto loro, John Deere e General Motor hanno messo il copyright sui software dei macchinari da loro prodotti: d’ora in avanti gli agricoltori non potranno più riparare o modificare i loro macchinari senza rivolgersi a meccanici autorizzati i quali avranno accesso esclusivo ai dati custoditi nelle memorie delle macchine. Questa concentrazione dell’informazione mina alla base l’autonomia degli agricoltori. Infatti, le grandi companies si comportano sempre più da data brokers, nel senso che acquisiscono dati da sensori o direttamente dagli agricoltori senza obblighi nei loro confronti. Per far fronte a questo tipo di problemi, occorre una riorganizzazione sociale dell’agricoltura che limiti la proprietà del controllo delle produzioni da parte delle companies detentrici dei big data; è necessario pertanto finanziare open source analytics per rendere utilizzabili i dati a chi li produce. La Pordue University, nello stato dell’Indiana, ha varato il progetto ISO-blue (http://www.isoblue.org/), una piattaforma open data in grado di rendere disponibili agli agricoltori i dati che normalmente sono raccolti e utilizzati dai venditori.
4. Big data e zootecnia di precisione: una risorsa importante.
Con le tecniche di “Precision Agriculture” e di “Precision Livestock Farming (o PLF)” anche in Zootecnica sono recentemente aumentate le tecnologie dell’informazione e comunicazione (ICT) a disposizione degli allevatori, aumentando la loro capacità lavorativa e l’efficienza tecnico-economica dei loro processi decisionali, grazie alla disponibilità sul mercato di una moltitudine di supporti decisionali o “Decision Support System (DSS)” che si basano sulla raccolta e archiviazione di dati aziendali relativi al processo produttivo e dalla cui elaborazione automatica sono prodotti indicatori utilizzati dall’allevatore per prendere con maggiore sicurezza le scelte quotidiane in stalla. L’esempio diffuso maggiormente e da più tempo negli allevamenti bovini da latte è il sistema di individuazione dei calori delle bovine sulla base della attività fisica. A tal fine sono stati applicati degli attivometri agli animali (con podometro o collare) che scaricano i dati di attività direttamente su computer e indicano all’allevatore le bovine che devono essere fecondate nelle successive 24 ore. Molteplici strumenti sono stati inventati e messi a disposizione degli allevatori negli ultimi decenni, non ultimi i sistemi di misurazione automatica della produzione che includono misure di flusso di mungitura e di conducibilità elettrica del latte, sistemi di monitoraggio della ruminazione, della funzionalità ruminale e dello stress da caldo. Esistono inoltre numerosi altri device capaci di raccogliere informazioni a livello della singola bovina o singolo capo per altre specie zooztecniche e riportarli su supporto digitale, spesso consentendo un monitoraggio continuo e in tempo reale degli animali e del loro comportamento visualizzabile in remoto via tablet o PC (http://www.eu-plf.eu). Molteplici esempi della più recente tecnologia disponibile sono riportati nel testo pubblicato dalla Wageningen Academic Publishers che viene aggiornato periodicamente (ultima pubblicazione Halachmi et al., 2015).
Si prevede un ulteriore aumento di informazioni digitalizzate con la diffusione dell’uso dei software gestionali. Questi strumenti accessibili da tablet e smartphone, consultabili e aggiornabili in tempo reale si sostituiranno alle agende e quaderni di stalla e costituiranno il supporto di consultazione più frequentemente utilizzato dall’allevatore per l’ottimizzazione della gestione della stalla e del proprio tempo. Un esempio recentemente immesso sul mercato è il software Dairy Life, un applicativo gestioanle per allevamenti bovini che lavora in cloud, su piattaforme online, capace: – di archiviare l’anagrafica aziendale e le immagini dei capi, – di supportare la gestione riproduttiva e il piano degli accoppiamenti, – di registrare i trattamenti sanitari e le notedelle visite veterinarie (incluse le variazioni dell’armadietto del farmaco), -di collegarsi con altri device presenti in sala di mungitura per la registrazione della produzione del latte, – di elaborare statistiche degli eventi di stalla consultabili in ogni momento e soprattutto di generare promemoria per le attività da svolgere sugli animali (trattamenti, fecondazioni etc) da inviare all’allevatore o ai suoi collaboratori in tempo reale.
Alla mole di informazioni raccolta in stalla, dall’allevatore o automaticamente, si aggiungono le informazioni fenotipiche raccolte in specifico dalla associazioni di allevatori per i piani di miglioramento genetico e le informazioni di biologia molecolare provenienti dalle analisi genetiche di genotipizzazione degli animali. Questo tipo di informazioni, codificate e non codificate, costituiscono una fonte informativa utilizzata in maniera parziale ma con ulteriori potenziali per utilizzazioni future con l’avanzare delle scoperte negli studi genomici.
In un nostro lavoro (Atzori et al., 2013) dimostriamo come la corretta gestione dei processi aziendali consente di incrementare le performance aziendali e generare profitti (Figura 2). Seguendo le frecce si può osservare che parte di questi profitti sono destinati a investimenti tecnologici per il supporto decisionale. Questi non sono altro che strumenti capaci di registrare automaticamente informazioni e generare big data. La disponibilità di informazioni e l’elaborazione automatica dei report è oggi alla base del miglioramento della qualità organizzativa degli allevamenti e la conseguente capacità di generare ulteriori profitti dagli investimenti eseguiti. La freccia rossa indica un pericoloso “collo di bottiglia” causato dal gap informativo. La capacità di migliorare la gestione a partire dalle informazioni disponibili è proporzionale alla capacità di comprensione ed elaborazione dei dati che dipende a sua volta dalla conoscenza dei fenomeni
Le fonti informative installate presso gli allevamenti, messe a disposizione in reti condivise ,costituiscono il principale agregato futuro di big data in agricoltura e zootecnia. Il paradigma dell’agricoltura e della zootecnica di precisione funziona solo se supportato dalla corretta informazione. Infatti, avere a disposizione tecnologia non significa riuscire a ottimizzarne l’uso. La sottoutilizzazione e la errata interpretazione delle informazioni provenienti da tecnologie informatiche e supporti decisionali porta elevate perdite economiche (Bewley, 2012). Generalmente si registrano elevate adozioni di tecnologia ma una loro bassa utilizzazione, In pratica le ditte propongono agli allevatori, che le acquistano, acquistano tecnologia informatica sempre più potente e sofisticata, ma le potenzialità informative sono trasferite solo parzialmente al settore e sono poco utilizzate per la gestione. La disponibilità di dati è fortemente in crescita anche in zootecnia e la sfida è da intendersi aperta per la comprensione delle informazioni e dei messaggi che dai dati possono essere messi a disposizione della efficienza degli allevamenti e della professionalità degli allevatori e dei tecnici.
5. Conclusioni
L’era della iperinformazione rischia di deragliare in quella della grande ignoranza. Agricoltura e zootecnia non sfuggono a questo rischio e, se inconsapevoli, gli attori della filiera possono subire sempre più la dittatura dei proprietari dei dati senza avere strumenti di comunicazione adeguati. La zootecnia di precisione è una grande opportunità, ma soltanto se le decisioni non saranno espropriate agli allevatori e questi saranno sempre in gradi di capire cosa dovranno fare e perché prima di procedere alle loro scelte aziendali.
Foto: Pixabay
Giuseppe Pulina e Alberto S. Atzori