L’immagine può contenere: 1 persona, primo piano e spazio all’aperto

Scusatemi la faccia! Ma chi ha detto a Facebook cosa c’è nella foto del mio profilo? E com’è fatta l’inquadratura? E con che sfondo? E se non avessi tolto i dati EXIF, avrebbero mandato qualcuno a curiosare sul posto; e, magari, avranno pure capito che sulla macchina c’era un obbiettivo Nikkor 50 F1,4 per un effetto Bokeh potentissimo!

Quando avete visitato la bacheca Facebook di un utente, avrete notato che nei riquadri delle foto di copertina e del profilo appaiono, dapprima, alcune righe di testo e, subito dopo, si caricano rispettive foto; ora, grazie all’immensa potenza di calcolo di cui Facebook dispone (così come tutte le grandi aziende tecnologiche), in quei riquadri (e anche in tutte le immagini di copertina) appare per un paio di secondi l’anteprima TESTUALE che descrive il contenuto della FOTOGRAFIA! Poi la foto del profilo viene caricata e copre la scritta. Qui sotto il codice della mia foto del profilo (il grassetto è mio):

<img class=”spotlight” alt=”L’immagine può contenere: 1 persona, primo piano e spazio all’aperto” aria-busy=”false” src=”https://scontent-mxp1-1.xx.fbcdn.net/v/t1.0-9/13511051_10209310125661364_5610530787049343666_n.jpg?oh=4a177b2f5d10580ce7262e6adf928b40&amp;oe=59D836B2″>

copia Sacra Sindone
La Sindone di Arquata del Tronto (AP)

Dato che nessuno, manualmente, può aver catalogato le foto del profilo di oltre un miliardo e ottocento milioni di utenti attivi su Facebook è ovvio che questo lavoro l’hanno fatto con i computer. La certezza è anche fornita dal caso (emblematico) di una delle foto di copertina che ho scattato alla riproduzione della Sacra Sindone nella Chiesa di San Francesco ad Arquata del Tronto: “Nessun testo alternativo automatico disponibile”.

E se al sistema automatico di Facebook non risulta NULLA propro in QUESTA FOTO, io ci vedo anche un messaggio: non fidatevi mai dei computer e dei software per analizzare o tentare di comprendere concetti spirituali!

Ma ecco il codice HTML:

<img class=”spotlight” alt=”Nessun testo alternativo automatico disponibile.” aria-busy=”false” src=”https://scontent-mxp1-1.xx.fbcdn.net/v/t1.0-9/14523044_10210145737111128_6277100240417948765_n.jpg?oh=e101dc67dae79dfe399f6e5aa5e93f5f&amp;oe=59D92EAA”>

Appunto: automatico scrivono. Per cui non c’è più dubbio.

E ricordiamoci che se caricassimo una foto comprensiva dei dati informativi della fotocamera (in formato EXIF) ci potrebbe essere anche l’informazione geografica GPS del luogo di scatto inserita dal dispositivo mobile. Poi non potrete più dire a nessuno, e men che meno a Facebook, che quel giorno non eravate lì, dopo aver pubblicato una foto che vi riguarda, in primo piano e in uno spazio all’aperto!

In un altro caso ho letto, su una foto di studenti in una classe, che il sistema ha individuato, sempre automaticamente, che:

L’immagine può contenere: 19 persone, persone che sorridono, persone sedute, persone in piedi e spazio al chiuso

Ma cosa ci faranno con queste ulteriori informazioni estratte dalle foto da noi caricate?

Riconoscimento dei volti e TAG

In Facebook è già attiva da tempo la funzione di TAG per le foto, cioè di etichettatura, con la quale si associa il nome di un amico del social facendo clic proprio sul volto. Solo che a questo punto, l’informazione che noi riteniamo di fornire per un solo volto, sarà utilizzabile per tutte le volte che apparirà lo stesso volto in qualunque altra foto.

Quindi, a questo punto, un TAG su un volto, è per sempre!

E confermo questo, se non sono stato abbastanza chiaro, perché per la classificazione delle mie fotografie personali io utilizzo da anni il software Google PICASA che, proprio grazie alla tecnologia di riconoscimento del volto, dopo aver associato il primo volto ad un nome di persona, consente di abbinare automaticamente e con bassissimo tasso di errore, tutte le foto in cui appare lo stesso volto, anche man mano che il volto si modifica col tempo che passa. E si può solo immaginare cosa può fare la potenza di calcolo di una società tecnologica così grande e quanto potrà essere più accurato il riconoscimento! Ed immaginate se questo venisse usato anche su foto di gruppo e, persino, di eventi di massa come concerti, manifestazioni, assemblee, ecc., a quale risultato e a quali classificazioni su larga scala potrebbe portare.

Data Mining e Big Data: Scava, scava, la miniera social di Facebook produce oro “social”, “economico” e “politico”

Dobbiamo sapere che la nostra iscrizione a Facebook (ed agli altri social network) ed il successivo caricamento di foto ed altri contenuti, consente l’acquisizione di molte più informazioni rispetto a quelle che riteniamo di fornire coscientemente. Per ogni dato pubblicato o fornito, c’è quindi un’analisi automatica via software che permette di ottenere:

  • Testo = analisi diretta del contenuto per conoscere le nostre idee
  • Commenti = analisi diretta del contenuto per conoscere cosa pensiamo delle idee degli altri
  • Like e altre icone = analisi dello stato d’animo (si veda, nello specifico, il caso della schedatura dei 14enni australiani) e cosa ci suscitano le idee degli altri o le FOTO degli altri (se, ad esempio nella foto di classe, 19 persone sorridono, associare e confrontare permetterà di verificare le emozioni comunicate con le icone di gradimento oppure, perchè è sttato apposto un GRRR ad una foto di persone sorridenti, dedurre un sentimento di astio o generalmente contrariato).
  • Foto = DECODIFICA DEL CONTENUTO e DESCRIZIONE DEL LUOGO (con relativa classificazione, ne sono sicuro, ed abbinamento col testo pubblicato)
  • Perché no: Video = Vogliamo vedere che tra poco potranno DECODIFICARE IL CONTENUTO VIDEO e TRASCRIVERE IL CONTENUTO AUDIO, oltre alla DESCRIZIONE DEI LUOGHI (e relativa classificazione) di tutti i video caricati?

Tutto questo sopra è relativo alle analisi possibili sui NOSTRI SINGOLI DATI. Ma se i dati vengono analizzati in forma AGGREGATA?

Da una enorme mole di dati come quella a disposizione in Facebook o in altri social network o negli archivi dei grandi gestiori di E-commerce, definita tecnicamente Big Data, si possono ricercare informazioni con una tecnica che in informatica è definita Data Mining che fornisce risultati non evidenti in prima battuta sui dati presi singolarmente o in poca quantità ma che genera informazioni una volta che i dati raggiungono una mole importante; e su tutto ciò abbiamo già fornito la disponibilità alla raccolta perché così prevedono le regole che abbiamo accettato fin dall’iscrizione; si vedano infatti i titoli delle sezioni (e se ne legga la descrizione):

  • Attività che esegui e informazioni che fornisci
  • Attività eseguite e informazioni fornite dalle altre persone
  • Le tue reti e connessioni
  • Informazioni sui pagamenti
  • Informazioni sul dispositivo
  • Informazioni di siti Web e app che usano i nostri Servizi
  • Informazioni di partner terzi
  • Aziende di Facebook

per cui saranno analizzate, correlare e classificare, le informazioni fornite da ogni singolo utente (che resterà cosciente solo delle proprie) ma che, in forma aggregata, potranno fornire:

  • Contenuti testuali (post e commenti) <- -> appartenenza a gruppi <- -> legami ad altri contenuti e ai contenuti di altri utenti
  • Contenuti decodificati (da foto, video, ecc.) <- -> appartenenza a gruppi <- -> legami ad altri contenuti e ai contenuti di altri utenti
  • Like e contenuto dei post e degli articoli “piaciuti” o “dispiaciuti” <- -> legami ad altri contenuti e ai contenuti di altri utenti
  • Clic su Articoli da siti web <- -> classificazione
  • Clic su Prodotti commerciali sponsorizzati <- -> classificazione
  • Ecc.

A questo punto, trovato l’oro “social”, fatto crescere il livello di oro “economico”, l’era dell’oro “politico” che scaturisce dal social network, è pronto!

Ma mentre noi ragioneremo sempre “con la nostra testa” ci sarà qualcuno che sarà in grado di ragionare “con la testa del nostro gruppo” oppure “con la testa dei gruppi di cui facciamo parte”. Per cui, in conclusione, sarà disponibile l’informazione per effettuare classificazioni politiche, sociali, culturali, etiche, linguistiche, ceto, religione, ecc. in DUE DISTINTE DIREZIONI: IN e OUT

  1. IN – Permette di classificare i gruppi esistenti per azioni mirate a quel gruppo e a tutti gli utenti che ne fanno parte.
  2. OUT – Permette di estrarre dal miliardo e 800 milioni di utenti gli insiemi di tutti i soggetti che ricadono in una o più classificazioni TARGET per:
    1. azioni di marketing non solo Sociale, per aumentare ed attirare più utenti, come in passato;
    2. azioni di profitto non solo per Economico, come oggi avviene;
    3. ma azioni di profitto Politico, con un motto del tipo: SAPPIAMO GIA COME LA PENSI!

Ne avevo già parlato in un articolo sull’in-dividuo, e qui la cosa non è affatto disgiunta!


P.S.
La foto per il mio profilo FB è stata scattata da un mio amico con il suo obbiettivo Nikkor 50mm f /1.4 montato sulla mia macchina fotografica Nikon D3200; dato che l’avevo sempre usata col normale obbiettivo 18-55 mm f/3.5-5.6 in dotazione, mi aveva prestato il suo per un pomeriggio e poi, prima di restituirglielo a malincuore, mi ha scattato un ritratto che ne ha ulteriormente dimostrato la qualità!
E prima o poi … mi aspetto una valanga di post sponsorizzati con offerte dalle ditte di e-commerce su questo obbiettivo!

image_pdfScarica il PDFimage_printStampa

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

*