gen 142015
 
PrintFriendlyEmailEvernoteFacebookTwitterGoogle+Segnalibro

Le enormi potenzialità legate all’evoluzione dell’intelligenza artificiale saranno in grado, in futuro, di spalancare la strada ad innovazioni nemmeno immaginabili fino a poco tempo fa. Sarà possibile sfruttarne le capacità per migliorare l’interazione uomo-macchina, oppure per automatizzare alcune operazioni che oggigiorno richiedono l’intervento attivo dell’utente. Gli enormi passi in avanti che stanno compiendo le tecnologie di IA, però, secondo alcuni potrebbero rappresentare un rischio.

Una delle prime voci autorevoli ad esprimersi in merito è stata quella di Elon Musk (Tesla, SpaceX), che nei mesi scorsi ha manifestato tutta la propria preoccupazione, dichiarando che senza un adeguato controllo la situazione potrebbe sfuggire di mano entro pochi anni, arrivando a rappresentare una vera e propria minaccia per l’intero genere umano. Anche Google, seppur senza utilizzare toni allarmistici, ha ufficializzato la creazione di un comitato etico con l’obiettivo di valutare eventuali rischi e implicazioni connessi al progresso tecnologico.

Interviene sull’argomento anche il Future of Life Institute (FLI), un’organizzazione di ricerca con sede a Boston di cui tra gli altri fanno parte Jaan Tallinn (co-fondatore di Skype) e il fisico Stephen Hawking. Il gruppo ha pubblicato una lettera aperta in cui si chiede ai ricercatori di concentrare il proprio lavoro non solamente sul rendere l’intelligenza artificiale più versatile e funzionale, ma anche di massimizzarne i benefici per la società. In altre parole, si suggerisce alle realtà impegnate nell’ambito della IA di focalizzare la propria attenzione sull’esigenza che le tecnologie sviluppate facciano esattamente (ed esclusivamente) ciò per cui sono state concepite.

Sono in molti a pensare che la ricerca relativa all’intelligenza artificiale sia in continua evoluzione, così come crescente è il suo impatto sulla società. I potenziali benefici sono enormi, ma poiché tutto ciò che la civilizzazione ha da offrire è un prodotto dell’intelligenza umana, non siamo in grado di prevedere ciò che potrebbe accadere quando questo nuovo tipo di intelligenza sarà potenziato dagli strumenti offerti dalla IA.

In definitiva, i passi in avanti compiuti negli ultimi due decenni riguardo a riconoscimento vocale, classificazione delle immagini, veicoli autonomi, traduzione ecc. vanno senz’altro considerati come positivi e un terreno sul quale continuare a investire per ottenere risultati ancora più avanzati. Senza chiamare in causa le situazioni catastrofiche rappresentate nella letteratura o nella cinematografia sci-fi, secondo le lettera aperta del FLI, è però bene iniziare a prendere consapevolezza di possibili pericoli legati ad uno sviluppo incontrollato dell’intelligenza artificiale.

Proprio in conseguenza del grande potenziale dell’IA, è importante per i ricercatori ottenerne i benefici facendo attenzione ad evitarne le insidie.

In molti hanno già firmato il documento, condividendo il punto di vista del Future of Life Institute. Tra questi anche membri di aziende come Google, Amazon e DeepMind, oltre ad esponenti di Harvard e del MIT.

Cristiano Ghidotti, WebNews.it,

Research Priorities for Robust and Beneficial Artificial Intelligence: an Open Letter

Artificial intelligence (AI) research has explored a variety of problems and approaches since its inception, but for the last 20 years or so has been focused on the problems surrounding the construction of intelligent agents – systems that perceive and act in some environment. In this context, “intelligence” is related to statistical and economic notions of rationality – colloquially, the ability to make good decisions, plans, or inferences. The adoption of probabilistic and decision-theoretic representations and statistical learning methods has led to a large degree of integration and cross-fertilization among AI, machine learning, statistics, control theory, neuroscience, and other fields. The establishment of shared theoretical frameworks, combined with the availability of data and processing power, has yielded remarkable successes in various component tasks such as speech recognition, image classification, autonomous vehicles, machine translation, legged locomotion, and question-answering systems.

As capabilities in these areas and others cross the threshold from laboratory research to economically valuable technologies, a virtuous cycle takes hold whereby even small improvements in performance are worth large sums of money, prompting greater investments in research. There is now a broad consensus that AI research is progressing steadily, and that its impact on society is likely to increase. The potential benefits are huge, since everything that civilization has to offer is a product of human intelligence; we cannot predict what we might achieve when this intelligence is magnified by the tools AI may provide, but the eradication of disease and poverty are not unfathomable. Because of the great potential of AI, it is important to research how to reap its benefits while avoiding potential pitfalls.

The progress in AI research makes it timely to focus research not only on making AI more capable, but also on maximizing the societal benefit of AI. Such considerations motivated the AAAI 2008-09 Presidential Panel on Long-Term AI Futures and other projects on AI impacts, and constitute a significant expansion of the field of AI itself, which up to now has focused largely on techniques that are neutral with respect to purpose. We recommend expanded research aimed at ensuring that increasingly capable AI systems are robust and beneficial: our AI systems must do what we want them to do. The attached research priorities document gives many examples of such research directions that can help maximize the societal benefit of AI. This research is by necessity interdisciplinary, because it involves both society and AI. It ranges from economics, law and philosophy to computer security, formal methods and, of course, various branches of AI itself.

In summary, we believe that research on how to make AI systems robust and beneficial is both important and timely, and that there are concrete research directions that can be pursued today.

 Posted by at 17:07  Tagged with:
gen 142015
 

Grazie ai ‘mi piace‘ che seminiamo sui social network, i computer riescono a inquadrare la nostra personalità molto meglio di quanto non facciano amici e parenti: gli unici in grado di batterli (ma di misura) sono i nostri partner.

E’ quanto emerge dall’analisi condotta su oltre 86.000 profili Facebook dai ricercatori delle università di Cambridge e Stanford. Lo studio, pubblicato sulla rivista dell’Accademia americana delle scienze (Pnas), fornisce elementi utili per elaborare nuove strategie di interazione uomo-macchina, in modo da sviluppare computer capaci di riconoscere le emozioni umane proprio come nei film di fantascienza.

Le ‘chiavi’ per entrare nella nostra psiche, del resto, le forniamo noi stessi ogni volta che clicchiamo ‘mi piace’: grazie alle impronte che lasciamo sui social network come Facebook, i computer sanno dipingere un quadro della nostra personalità che risulta essere addirittura più fedele di quello tratteggiato dalle persone in carne e ossa che ci conoscono davvero. I risultati dello studio sono impietosi. Bastano 10 ‘mi piace’ perchè il computer riesca a inquadrare la nostra personalità meglio di un collega di lavoro, 70 ‘mi piace’ per battere un nostro coinquilino e 150 per superare un nostro familiare. Contro il partner, la lotta si fa più dura: il computer deve analizzare almeno 300 ‘mi piace’ per eguagliare la perspicacia e l’esperienza della nostra dolce metà.

”L’abilità di giudicare la personalità è parte essenziale della nostra vita sociale, nelle decisioni di tutti i giorni come nei progetti a lungo termine, come quando dobbiamo scegliere chi sposare, chi assumere o chi eleggere come presidente”, spiega uno dei ricercatori, David Stillwell. Il ‘Grande Fratello’ delle emozioni potrà dunque esserci di aiuto nel fare le nostre scelte, a patto però che ”i consumatori, gli sviluppatori di tecnologie e i decisori politici promuovano tecnologie e leggi a protezione della privacy, dando agli utenti pieno controllo delle loro impronte digitali”, concludono i ricercatori.

fonte: http://www.ansa.it/sito/notizie/tecnologia/internet_social/2015/01/13/il-computer-ci-conosce-meglio-di-amici-e-parenti-_35583654-66f7-4ec6-b2a0-07bcfad544cf.html

ndr: il titolo originale dell’articolo era “Il computer ci conosce meglio di amici e parenti “, che ritengo improprio perchè di per sè il computer non ci conosce affatto, ma è la solita accoppiata big data e data mining che fa la differenza. E Facebook ha in mano un “modesto” archivio di informazioni con le quali divertirsi!

 

mag 222014
 

Le preoccupazioni per l’uso intensivo dei media digitali come strumenti di sorveglianza pervasiva sono aumentate esponenzialmente dopo le rivelazioni della “gola profonda” Edward Snowden sulle pratiche di spionaggio messe in atto dai suoi ex datori di lavoro, la maggiore agenzia di sicurezza Usa, la Nsa, ai danni dei cittadini americani e di tutti gli altri paesi, nonché di capi di Stato (anche alleati) e imprese pubbliche e private. A mano a mano che Snowden rendeva noti nuovi documenti che denunciavano tali pratiche – intercettazioni di conversazioni telefoniche, email e quant’altro – i media sfoderavano gli immancabili riferimenti al romanzo “1984” di Orwell, o al Panopticon di Bentham, utilizzato da Michel Foucault come emblema di una modernità assurta a regno della sorveglianza e del controllo. Ora un libro a quattro mani di David Lyon e Zygmunt Bauman (si tratta di una conversazione a distanza, realizzata attraverso lo scambio di email) dal titolo “Sesto Potere. La sorveglianza nella modernità liquida” suggerisce una prospettiva diversa.

Lyon, da sempre attento analista dei problemi della sorveglianza, e Bauman, il filosofo che ha sostituito il concetto di “modernità liquida” alla categoria di postmodernità, ribaltano gli scenari orwelliani e foucaultiani di cui sopra, ai quali contrappongono quattro tesi di fondo: 1) viviamo in un mondo post-panottico in cui le nuove forme di controllo e sorveglianza assumono le caratteristiche tipiche del consumo e dell’intrattenimento; 2) i principali oggetti al centro dell’attenzione dei sistemi di sorveglianza non sono le persone in carne e ossa, bensì i loro “doppi” elettronici, cioè i dati che li riguardano; 3) ciò che più dobbiamo temere non è la fine della privacy e dell’anonimato bensì l’inquadramento in categorie in grado di determinare a priori il nostro futuro di consumatori e cittadini; 4) la costruzione di questa macchina infernale procede con la collaborazione spontanea, se non gioiosa, delle sue vittime. Proverò ora a illustrare le quattro tesi nell’ordine appena enunciato.

Il concetto di Panopticon, argomentano Lyon e Bauman, implicava la concentrazione dei soggetti sottoposti a sorveglianza in determinati luoghi – carceri, fabbriche, scuole, ospedali, ecc. – e sfruttava il “controllo delle anime” come strumento per cambiare comportamenti e motivazioni. Lo sguardo del controllore, temuto ma non visto e quindi presunto come costantemente presente, induce l’autodisciplina di lavoratori, prigionieri, pazienti e allievi che si adeguano alle aspettative del sistema di controllo per non subire sanzioni. Queste modalità punitive di controllo, osservano gli autori, riguardano ormai esclusivamente le “zone ingestibili” della società come le prigioni e i campi profughi, sono cioè riservate agli esseri umani dichiarati “inutili” ed esclusi nel senso pieno e letterale della parola. Viceversa il nuovo potere globale – che Lyon e Bauman contrappongono al potere politico tradizionale, confinato nel locale – non si esercita erigendo barriere, recinzioni e confini che vengono anzi considerati come ostacoli da superare e aggirare; esso deve poter raggiungere tutti in modo da poterli valutare e giudicare uno per uno e, a tale scopo, si impegna affinché tutti siano motivati a esporsi volontariamente al suo sguardo, a cercarlo avidamente più che a sottrarvisi.

Passiamo alla seconda tesi. Qui Lyon e Bauman analizzano il fenomeno del “doppio elettronico”. La costruzione di veri e propri “duplicati” delle persone è un processo costantemente in atto a partire dai frammenti di dati personali che ognuno di noi fornisce continuamente e quotidianamente al sistema di sorveglianza navigando in rete, usando la carta di credito, frequentando i social media, usando i motori di ricerca. Ciò di cui non siamo consapevoli è che questi frammenti di dati, estratti per scopi diversi, vengono poi remixati e utilizzati per altri scopi, sfuggendo completamente al nostro controllo (la sorveglianza tende così “a farsi liquida”, dice Bauman riproponendo la sua metafora favorita). Ma soprattutto ciò di cui non ci rendiamo sufficientemente conto è che questa informazione sganciata dal corpo finisce per esercitare un’influenza decisiva sulle nostre opportunità di vita e di lavoro. Il punto è infatti che i nostri duplicati divengono oggetto di analisi statistiche che servono a prevedere comportamenti futuri (Lyon e Bauman citano in merito il film “Minority Report”) e, sulla base di tali previsioni, a incasellarci in determinate categorie di consumatori appetibili o marginali e/o di cittadini buoni cattivi o “pericolosi”.

Siamo così alla terza tesi, la più inquietante, secondo cui la nuova sorveglianza si propone di selezionare le persone allo stesso modo in cui, nei campi di concentramento nazisti, si selezionava chi doveva essere eliminato subito e chi poteva ancora tornare utile. Oggi è sparita la violenza omicida, ma non il principio della classificazione come presupposto di un trattamento differenziale per le diverse categorie di consumatori e cittadini. Il marketing ci valuta in base ai nostri “profili”, cioè ai nostri precedenti comportamenti di consumo; i sistemi di sicurezza non rivolgono più la loro attenzione ai singoli potenziali malfattori ma alle “categorie sospette” (vedi le disavventure delle persone di origine araba ai controlli negli aeroporti occidentali). Ecco perché la privacy non è più soltanto minacciata, ma diventa addirittura sospetta.

Quante volte vi siete sentiti rispondere da qualcuno a cui ponevate il problema “che m’importa tanto non ho nulla da nascondere”? Come dire: se qualcuno tiene troppo alla propria invisibilità è automaticamente sospettato di avere commesso un crimine. Una mentalità che alimenta la tendenza alla delazione: per non essere classificati fra i sospettati, siamo infatti disposti a puntare il dito (o gli occhiali di Google) contro gli altri. Infine la quarta tesi: esporsi alla sorveglianza è oggi divenuto un gesto spontaneo, se non addirittura gratificante. Se il sorvegliato del Panopticon era ossessionato dall’incubo di non essere mai solo, il nostro incubo è diventato quello di non essere notati da nessuno; quello che vogliamo è non sentirci mai soli. Addestrati dai reality show televisivi e dall’esibizionismo dei social media, i nativi digitali considerano l’esibizione pubblica del privato come una virtù, se non come un dovere; “diventiamo tutti, al tempo stesso, promotori di merci e le merci che promuoviamo”, siamo costantemente impegnati a trasformare noi stessi in una merce vendibile.

La seduzione sostituisce la polizia come arma strategica del controllo e ciò non riguarda solo consumi e sicurezza, ma anche la nuova organizzazione del lavoro: i manager si liberano del fardello di gestire e controllare una forza lavoro che ormai si autocontrolla h24 (come le lumache, scrivono Lyon e Bauman, ci portiamo sempre dietro quei Panopticon personali che sono cellulari, smart phone e iPad).

«La guerra d’indipendenza delle scuri contro i boia», si legge in un passaggio del libro, «ormai si è conclusa con la vittoria delle scuri, ormai sono le scuri a scegliere i fini, cioè le teste da tagliare».

Sygmunt Bauman e David Lyon, “Sesto potere. La sorveglianza nella modernità liquida”, ed. Laterza – tratto dalla recensione di Carlo Formenti,  “Micromega” del 5 marzo 2014

mag 122014
 

<<Per quanto la Rete sia meravigliosamente elastica e resistente, non possiamo dimenticare che fu concepita alle origini per qualche milione di utenti al massimo, ora siamo miliardi. È un sistema che si sta avvicinando al livello di guardia, nel senso che sta raggiungendo quel limite oltre il quale potrebbe sfuggire al controllo umano. Se esistesse una scala Richter da 1 a 10 per i terremoti su Internet, quello che abbiamo subìto pochi giorni fa sarebbe a quota 11». L’esperto di crittografia Bruce Schneier ha fatto questo bilancio drammatico sul “New Yorker”, a proposito del super-virus Heartbleed. 500.000 siti violati per due anni, inclusi colossi come Twitter, Yahoo, Amazon, Dropbox, Tumblr. Centinaia di milioni di password, carte di credito, accessi bancari potrebbero essere finiti in mano a hacker, ladri, truffatori.>>

«Cerchiamo almeno di prepararci a sopravvivere per le prime 48 ore di caos e paralisi totale», è una delle esortazioni di Dennett. In quei primi due giorni forse ci giocheremmo tutto, l’umanità (almeno quella che abita nei paesi avanzati) rischierebbe di retrocedere in una sorta di Medioevo.

«La gente non si rende conto che oggi tutto dipende dalla Rete, nessuna funzione vitale può continuare se si blocca Internet. Qui negli Stati Uniti si spegnerebbero tv e cellulari, si fermerebbero bancomat, supermercati, distributori di benzina. Ecco perché il maggiore pericolo sarebbe il panico, il folle panico delle prime 48 ore, quando la gente non sa che fare, non ha notizie, non ha istruzioni, non ha mai fatto un’esercitazione per prepararsi. Occorre un piano-B per resistere le prime 48 ore, in attesa che si riattivi qualche funzione essenziale della società. Altrimenti si rischia la disperazione di massa, e dunque la disintegrazione di una civiltà».

Federico Rampini, “Se crolla Internet, estratto da “La Repubblica” del 13 aprile 2014

 

mar 232014
 

<<È vero che il software non potrebbe esercitare i poteri della sua leggerezza se non mediante la pesantezza del hardware; ma è il software che comanda, che agisce sul mondo esterno e sulle macchine, le quali esistono solo in funzione del software, si evolvono in modo d’elaborare programmi sempre più complessi. La seconda rivoluzione industriale non si presenta come la prima con immagini schiaccianti quali presse di laminatoi o colate d’acciaio, ma come i bits d’un flusso d’informazione che corre sui circuiti sotto forma d’impulsi elettronici. Le macchine di ferro ci sono sempre, ma obbediscono ai bits senza peso.>>

Italo Calvino, “Lezioni Americane”

feb 102013
 

Il problema della privacy in rete, come spiegato più volte (a partire dalla semplice associazione big data + data mining), è davvero preoccupante.
Il mercato non sta a guardare e viene incontro a noi cittadini con nuovi servizi (a pagamento, ovviamente), per tutelare e proteggere la nostra privacy.

Un esempio è quello offerto da Reputation.com: guarda il video MyPrivacy from Reputation.com

Tutto verosimile quanto illustrato nella prima parte: ma poi, davvero è possibile ripulire la nostra “fedina digitale”? Qualche dubbio mi rimane: andando a visitare il sito reputation.com, mi sono visto “attaccare” da ben 14 trackers (da Google a Yahoo, ma anche ClickTale, AdRoll, Quantcast, etc.)

Se il controllore è a sua volta controllato…

feb 102013
 

Il data mining è un processo di estrazione di conoscenza da una grande quantità di dati. Questa conoscenza può avere un valore enorme, a seconda della quantità di dati a disposizione e del settore di riferimento.

C’è chi sfrutta il data mining per estrarre potenziali conclusioni da una serie di dati biologicimetereologicifisici o comunque scientifici.  E naturalmente, ci sono i grandi colossi del Web, per i quali i dati utente stanno diventando sempre più preziosi, poiché consentono di individuare quali utenti siano bersagli perfetti per pubblicità mirate.

In realtà, il data mining vero e proprio è solo uno degli step di un processo più ampio chiamato KDD (Knowledge Discovery in Databases). Questo macroprocesso consiste nella riorganizzazione dei dati all’interno di un database affinché siano pronti per essere “estratti”. Una volta selezionato il tipo di dati su cui si vuole compiere l’analisi, una volta puliti i dati da ogni tipo di rumore o ridondanza, una volta scelto l’algoritmo di estrazione migliore per lo scopo si passa all’analisi vera e propria dei dati in cerca di pattern da cui si possa estrarre un’informazione sconosciuta o verificarne una prevista.

A cosa servono le informazioni estratte da Internet?
Il tempo che passiamo in Rete potrebbe tranquillamente essere paragonato al tragitto di Pollicino nel bosco, la differenza è che noi utenti le briciole le perdiamo da tasche bucate rigonfie di pane, e dunque a nostra insaputa. Lasciamo tracce quando accediamo a un sito, quando apriamo un link, quando utilizziamo una social app, anche solo quando ci soffermiamo più del solito su una particolare immagine o pubblicità. Ogni giorno, la nostra attività in Rete lascia dietro di sè una scia di informazioni che fanno gola a decine di segugi elettronici sguinzagliati nel Web. Come è facile intuire, gran parte di queste informazioni vengono sottoposte a data mining a fini commerciali, pubblicitari per la precisione.
Dall’analisi dei dati utente è possibile reperire informazioni puntuali sulle loro tendenze di consumo e, dal confronto con il comportamento di altri utenti dai gusti simili nei confronti degli ad pubblicitari, valutare quali inserzioni possano avere maggiori chance di ottenere click.

Per approfondire:  CINECA* offre servizi di DataMining (pdf, 416KB)

*CINECA è un Consorzio Interuniversitario senza scopo di lucro formato da 54 università italiane, più l’Istituto Nazionale di Oceanografia e di Geofisica Sperimentale – OGS il Consiglio Nazionale delle Ricerche – CNR e il Ministero dell’Istruzione, dell’Università e della Ricerca – MIUR.
ott 032012
 

Ho introdotto due nuovi (relativamente…) neologismi, già trattati nei precedenti articoli: Big Data e Data Mining.
Vorrei chiarire cosa sottintendono. Per ora parliamo di Big data.

<<Nel 2003 avevamo prodotto collettivamente 5 miliardi di gigabyte di dati (o exabyte). L’anno scorso questa cifra è salita a 1,8 trilioni di gigabyte (o zettabyte). Si tratta di dati prodotti dagli acquisti e dalle vendite, dai cellulari, dai nostri spostamenti (es. il telepass), dagli oltre 30 milioni di sensori istallati in città (quelli per la misurazione delle polveri sottili) o incorporati in oggetti (macchine industriali, automobili, contatori elettrici, ecc..), dalle attività svolte online.

Pensate che ogni minuto in rete vengono spedite 204 milioni di email,effettuate 2 milioni di ricerche su Google, caricate l’equivalente di 48 ore di video su YouTube, creati più di 27mila post su Tumblr e WordPress, inviati oltre 100mila tweete compiute oltre 2.2 milioni di azioni su Facebook (like, condivisioni, commenti, ecc…).

Big data è il termine che viene usato ultimamente per far riferimento a base dati che hanno alcune caratteristiche peculiari, le 3 V:

  • Volume: nel senso di ingenti quantitativi di data set non gestibili con i database tradizionali;
  • Velocity: dati che affluiscono e necessitano di essere processati a ritmi sostenuti o in tempo reale. La velocità a volte è un fattore critico per garantire la soddisfazione del cliente;
  • Variety: elementi di diversa natura e non strutturati come testi, audio, video, flussi di click, segnali provenienti da RFID, cellulari, sensori, transazioni commerciali di vario genere.

Una miniera di informazioni a disposizione delle organizzazioni che saranno in grado di acquisirli, gestirli, interpretarli. Le aziende potrebbero utilizzarli per analizzare i rischi e le opportunità di mercato, ma soprattutto per comprendere più a fondo i bisogni dei clienti, addirittura prima che questi li esprimano. Wal-Mart ha acquisito una società specializzata per monitorare i post su Facebook, Twitter, Foursquare e individuare i punti vendita da rifornire adeguatamente dei prodotti più citati.

Anche le pubbliche amministrazioni potrebbero trarre vantaggio dalla comprensione dei dati a loro disposizione. Ad esempio l’agenzia per il lavoro tedesca analizzando i dati storici sull’impiego e sugli investimenti effettuati, è riuscita a segmentare la popolazione dei disoccupati per offrire interventi mirati ed efficienti. Ciò si è tradotto in un risparmio di 10 miliardi di euro all’anno e nella riduzione del tempo impiegato per ottenere un lavoro.

Ma per ottenere questi vantaggi c’è bisogno di tecnologie sofisticate e un cambiamento culturale non indifferente. Infatti tutti questi bit sono inutili senza un investimento in risorse umane competenti che sappiano come trasformarli in informazioni utili. Il lavoro del data scientist è uno di quelli che nei prossimi anni sarà sempre più richiesto. Secondo McKinsey, nei soli Stati Uniti per poter sfruttare efficacemente le potenzialità dei big data occorrerebbero un milione e mezzo di analisti e data manager. Se le grandi organizzazioni imparano ad unire i punti delle nostre esistenze per i propri fini commerciali quali problemi potrebbero sorgere? Chi ci dice che non cedano alla tentazione di mettere in atto analisi predittive arbitrarie e discriminatorie per alcune categorie sociali?

Nella società dei dati dove la conoscenza asimmetrica, tra aziende e individui, può acuire enormemente il divario sociale, la gestione dei big data dovrebbe essere affrontata come una questione che coinvolge i diritti civili di tutti. C’è bisogno di stabilire, per tempo, nuove regole in termini di privacy, controllo e conservazione dei dati, trasparenza delle analisi, sicurezza. Alcune riflessioni e proposte in tal senso le trovate nel mio ultimo ebook che si intitola proprio “La società dei dati“.>>

Articolo scritto da Vincenzo Cosenza, Ottobre 2012

ago 102012
 

Il “social data mining” si occupa di analisi di informazioni generate dai social network.

Recentemente, Twitter ha siglato un accordo con la società inglese DataSift, la quale avrà accesso a ricerche (collegate a metadati, ovvero informazioni su luoghi, lingue, ecc.)  fino 24 mesi nel passato, per scandagliare le discussioni su un prodotto, gli umori della gente durante un avvenimento, e molto altro (per avere un’idea delle possibilità, consiglio di leggere il bel romanzo di Jeffery Deaver,  “La finestra rotta”).
Basti pensare che lo spazio occupato dai messaggi inviati su Twitter negli ultimi due anni è pari a 22mila dvd da 4,5GB.

Ritorniamo al discordo del “big data”: un’attività che muoverà, entro la fine dell’anno, 5 miliardi di dollari e, nelle previsioni tra 5 anni, ben oltre 53 miliardi di dollari, cioè 10 volte tanto rispetto il 2012.