digitSegnali episodio 5

l’algoritmo che trova gli scoop – i social media non distinguono i contenuti dei bot – una task force per controllare gli algoritmi – l’algoritmo dei social per tracciare i delfini e quello che aiuta a gestire il magazzino

NiemanLab inizia a pubblicare le “consuete” previsioni degli esperti per il 2018.

Dal breve intervento su NiemanLab di John Keefe “rubiamo” solo due affermazioni, che racchiudono un importante significato. Si tratta di un contenuto che, da molto cerchiamo di spiegare, e che sta a dimostrare, a nostro avviso,  il significato  più profondo di questa nostra rubrica settimanale:

I’m not talking about computer-generated stories about earthquakes, earnings reports, or sports scores. These will be stories on your beat, written by humans who understand how to use machine learning to aid their reporting.

Over the past year, conversations around AI and journalism often ventured into worries about artificial intelligence being deployed to replace reporters. But in the new year, we’ll be talking about how often reporters deployed artificial intelligence to land big stories.

Sta tutto qui sopra, in queste due affermazioni espresse  in modo chiaro e sintetico da Keefe: l’errore che si fa è  ingaggiare una lotta contro i contenuti generati dalle intelligenze artificiali – dove sarebbero poi? – al contrario  dovremmo servirci di queste in tutte quelle fasi di ricerca e analisi dei dati che spesso sono molto difficili e richiedono molto tempo. E andando oltre in questo ragionamento,  si tratterebbe poi di rendere trasparenti le loro strutture. Rendere trasparenti gli algoritmi (permetteteci di aggiungere)

Keefe nel suo pezzo riporta esempi concreti, raccontando esperienze e riportando storie di chi ha realizzato quanto appena auspicato, se qualcuno volesse farsi un’idea più chiara rispetto a questi concetti. Esempi di giornalismo d’inchiesta, d’approfondimento, di servizio e di altissimo livello utilizzando l’intelligenza artificiale e gli algoritmi per aumentare l’accuratezza e la profondità delle ricerche e della narrazzione:

Propublica –  è stato utilizzato un algoritmo per capire cosa interessi ai membri del Congresso 

Buzzfeed –  i giornalisti hanno usato il machine learning per identificare gli aerei di sorveglianza gestiti dagli USA Marshal e dagli appaltatori militari.

The Atlantic – E’ stato usato l’apprendimento automatico per capire se Trump utilizzava un bot per i tweet


 

Le previsioni di Nick Diakopoulos si concentrano sui social media e l’azione delle reti neurali artificiali usate per l’apprendimento automatico attraverso l’uso dei social. Su come queste reti creino contenuti. E su come questi contenuti siano creati:  da un bot  o da redattori umani!

Le reti neurali artificiali  ( modello matematico composto di “neuroni” artificiali, ndr) stanno migliorando rapidamente nella loro capacità di sintetizzare i contenuti, incluse immagini, video e testi, ed è sempre più difficile distinguerli da quelli creati dagli esseri umani.

The key weakness of social media — an inability to ensure the authenticity of communication and interaction — will continue to be exploited in 2018. And it’s going to get a lot worse

La principale debolezza dei social media – l’incapacità di assicurare l’autenticità della comunicazione e interazione che avviene sulle loro piattaforme –  anche nel 2018 continuerà ad essere sfruttata e addirittura aumenterà.

Queste tecnologie che consentono di sintetizzare automaticamente interi post e profili social credibili, essenzialmente “immaginati” dalle reti neurali, continueranno a proliferare e prenderanno facilmente parte ai discorsi online fra le persone anche nei prossimi mesi forse anni.

Come sarà possibile avere dibattiti, dialoghi e dialettica reali di  cui abbiamo necessariamente bisogno per gestire una democrazia? (in modo trasparente e democratico)

I giornalisti e altri attori della società civile possono svolgere un ruolo nel contribuire a scovare e garantire l’autenticità dei processi di comunicazione attraverso i quali il pubblico viene informato. Ma hanno bisogno di molto più dell’accesso ai dati delle piattaforme, se vogliono essere efficaci.


 

TechCrunch riporta che la città di NY ha deciso di istituire una task force che monitorizzi,  o meglio controlli, gli algoritmi utilizzati dalle istituzioni locali. Lo spunto interessante qui sta nelle raccomandazioni che la task force dovrebbe dare, che ci paiono fondamentali, nell’ambito di un processo  democratico.

La città di New York potrebbe presto acquisire una task force dedicata al monitoraggio della correttezza degli algoritmi utilizzati dalle istituzioni locali. L’unità sarà formata da esperti di sistemi automatizzati (algoritmi) e rappresentanti di gruppi interessati da tali sistemi (avvocati, poliziotti, ecc.) e dovrà esaminare attentamente gli algoritmi utilizzati e fornire indicazioni su come migliorare il loro uso ed evitare pregiudizi.  (confidiamo che ci siano anche i giornalisti in questa force, ci permettiamo di aggiungere)

la task force suggerirà raccomandazioni riguardanti:

  • In quale modo le persone possono sapere se loro o le loro azioni verranno valutate da un algoritmo e come informare le persone su tale procedimento
  • comprendere se un determinato algoritmo possa falsificare le comunicazioni prodotte a beneficio di alcuni gruppi sociali specifici, come gli anziani, gli immigrati, i disabili, le minoranze, ecc.
    In caso affermativo, che cosa potrebbe essere fatto a nome del gruppo coinvolto nell’azione pregiudizievole per renderla trasparente
  • Come funziona un determinato algoritmo, sia in termini più tecnici che di modalità di applicazione
  • Come devono essere documentati e archiviati questi sistemi e in che modo apprendono

Per chi avesse voglia di approfondire,  qui trova il testo integrale del provvedimento emesso dalla città di New York.


 

Chiudiamo con due esempi di utilizzo degli algoritmi – sempre da testare e da prendere con la massima cautela, ovviamente.

Il primo lo riporta il New York Times: L’utilizzo di algoritmi come quello di facebook che suggerisce nuovi  amici e contatti utilizzato  per tracciare le rotte dei delfini.

Tenere traccia degli spostamenti dei delfini è un processo difficile, lungo e costoso.

Un programma di apprendimento automatico (un algoritmo), simile a quello che ti consiglia nuovi amici su Facebook, potrebbe essere utile allo scopo.

“L’utilizzo del machine learning ha un grosso potenziale, ma sono necessari studi sul campo per verificare le previsioni degli algoritmi – ha dichiarato Shannon Gowans, professoressa di biologia e scienze marine presso l’Eckerd College in Florida.

Su Phys.org abbiamo invece trovato un algoritmo che aiuta i commercianti a prendere decisioni sulla gestione del proprio   magazzino. Utilizzando i dati, la loro gestione semplificata dalla AI  per semplificare le decisioni degli imprenditori.

“Questo algoritmo riconosce la relazione esistente  tra il livello di stock di prodotto/prodotti immagazzinati dai rivenditori e i loro profitti: questa relazione è complicata, ed è stata sostituita grazie all’adozione dell’algoritmo con una più semplice che indica un limite massimo alle vendite rispetto alla gestione del magazzino, un margine molto stretto. Avere a che fare con maggiore semplicità, seppur approssimativa, porta gli esseri umani, in questo specifico campo, a poter formulare decisioni migliori”