Narrazioni distribuite, diritti concentrati…un breve memo


…la crescente diffusione di modalità narrative espanse ha ragioni sociali, tecnologiche ed economiche…su questo ultimo punto riporto di seguito alcune infografiche pubblicate su io9.com, che danno l’idea di come poche major si spartiscano i diritti di gran parte dei franchise di maggiore successo commerciale (e per la Warner Bros andrebbe aggiunto Harry Potter…)

disney

universal sony paramount lionsgate wb 20thcenturyfox

Queste stesse major fanno parte, o sono a capo, di grandi gruppi dell’industria dell’intrattenimento o ancor più in generale di media corporation. Così, ad esempio, la Sony realizza e commercializza elettronica di consumo, produce e distribuisce film per il grande schermo (con i marchi Columbia, Sony Pictures, Tristar, Screen Gems), controlla diversi canali televisivi (in Italia il canale AXN), diverse case discografiche (RCA, Epic) ed è protagonista del mercato videoludico con la PlayStation.
Dal canto suo la Disney oltre alla produzione cinematografica (con i marchi Disney, Marvel, Touchstone, Pixar), realizza programmi televisivi, musica (con la sussidiaria Disney Music Group) e spettacoli teatrali (con la Disney Theatrical Group), controlla i network televisivi ABC e ESPN, la casa editrice Hyperion, i famosi parchi tematici e resort,  gestisce i diritti per la produzione di merchandising, fumetti, videogiochi ed altri contenuti audiovisivi legati a propri personaggi di maggiore successo, controlla direttamente una catena di punti vendita dei propri prodotti (i Disney Store) e realizza contenuti web  e videogiochi tramite Disney Interactive.
In uno scenario economico-industriale di questo tipo il rilancio di un prodotto di successo su più canali o supporti mediali diventa quindi una scelta del tutto naturale.
Niente di nuovo, ma vale la pena ribadirlo: l’organizzazione economica dell’industria dell’intrattenimento ha un ruolo fondamentale nella crescente diffusione di universi finzionali transmediali. E non è un caso che ogni rilancio transmediale sia nuovo contenuto narrativo ed al contempo advertising per ulteriori rilanci già in cantiere…

A presto…e buon 2013!
Cor.P

Pubblicità

Alternate Reality Games (Arg): una breve introduzione


In post precedenti ho evidenziato sinteticamente alcune caratteristiche fondamentali dello scenario sociomediale contemporaneo, che hanno contribuito in maniera decisiva all’affermarsi di modalità di racconto transmediali. Prodotto esemplare in questo senso, spesso parte di saghe ben più ampie, è l’Alternate Reality Game (Arg), gioco di realtà alternate.

Si tratta di un intrattenimento ludico, che usa le diverse dimensioni di realtà (mediate o meno) che attraversiamo nella nostra quotidianità – spot o cartelloni pubblicitari, fiction televisive, film per il grande schermo, siti web, social network, blog, mail, attori e attrici con cui interagire al telefono, online o nel mondo reale – per veicolare l’esperienza di gioco.

Tra le caratteristiche distintive di un Arg c’è quindi, come da nome, quella di alternare fasi del gioco su diversi piani di esistenza: virtuale, mediata o immediata. Da questo elemento, che è sempre più speculare al modo in cui viviamo la nostra quotidianità, ne deriva un altro che è in un certo senso la filosofia di fondo di molti di questi giochi, sintetizzata nell’acronimo Tinag (This is not a game) diffusosi nella letteratura anglofona sull’argomento. In altri termini molti Arg sono sviluppati in modo da dissimulare la loro stessa natura ludica, cercando invece, il più possibile, di incrociare con naturalezza la vita quotidiana dei partecipanti, insinuandosi tra le pieghe di abitudini consolidate. Può essere utile a dare un’idea del meccanismo in questione The Game (1997) di David Fincher, film il cui protagonista vive uno stravolgimento della propria esistenza che solo alla fine si rivelerà causato da un gioco. Nella pellicola Nicholas Van Orton (interpretato da Michael Douglas) è un ricco uomo d’affari. Il fratello Conrad (Sean Penn), per movimentare la sua monotona vita, in occasione del compleanno gli regala una tessera per iscriversi ad un esclusivo club e partecipare a un complicato e affascinante live-action game , organizzato dalla misteriosa Consumer Recreation Services (Crs). Nicholas si iscrive senza troppo interesse, ma da quel momento la sua vita diventa un incubo, in un crescendo di prove estreme e misteri intricati. Il gioco seguiterà ad essere sempre più serio e realistico finché sia lo spettatore che lo stesso protagonista dimenticheranno l’origine di tutto: The Game, appunto.

Questo  thriller, oltre ad essere un ottimo prodotto di intrattenimento
, è – ed è quello che più qui interessa – un’interessante rappresentazione del paradigma Tinag, sottostante all’ideazione e realizzazione di molti Arg, che fortunatamente lo adottano con sfumature meno persecutorie di quelle rappresentate nel film! Oltre questo, l’altra differenza fondamentale rispetto alla maggior parte degli Arg è che nel film di David Fincher il partecipante intorno al quale viene costruito il gioco è uno solo, mentre solitamente queste esperienze ludiche sono pensate per coinvolgere una pluralità (da poche decine a centinaia di migliaia) di individui.

Di solito l’ingresso in un Arg avviene tramite indizi, dispersi in maniera apparentemente casuale, che i più intraprendenti decidono di seguire. Tutto questo in coerenza con il principio Tinag, rispetto al quale non sarebbe sensato lanciare un Arg, pubblicizzandolo ex-ante come gioco in quanto tale. Gli indizi così disseminati vengono chiamati rabbit holes, proprio perché sono dei piccoli pertugi esplorando i quali si viene immessi nella struttura del gioco.

Un esempio in questo senso è quello dei poster promozionali del film Intelligenza Artificiale (A.I.)(2001) di Steven Spielberg. Chi ne avesse osservato con estrema attenzione i credits, avrebbe notato il nome di Jeanine Salla, nella veste di terapista di macchine senzienti, tra quelli ben più consueti del regista, del montatore e degli attori.


I più curiosi, allertati dal suo inedito compito di roboterapista andarono a verificare chi fosse Jeanine Salla su Google, e scoprirono che lavorava alla Bangalore World University, anno 2142 (!).

Agganciando i partecipanti tramite questo indizio ed altri disseminati nei trailers del film (ad esempio un numero telefonico chiamando il quale si ricevevano ulteriori informazioni su Jeanine) gli autori di The Beast coinvolsero centinaia di migliaia di persone in una investigazione – tra siti web, numeri di telefono, scambi di mail con i protagonisti dell’Arg ed eventi dal vivo – per scoprire le cause della morte di Evan Chan, amico di famiglia di Jeanine, ritrovato cadavere all’interno della sua barca Cloudmakers, dotata di intelligenza artificiale. Durato tre mesi e conclusosi nel luglio 2001, questo gioco di realtà alternate creato da Steven Spielberg in collaborazione con Microsoft per lanciare il film con Will Smith,  è riuscito a coinvolgere più di un milione di partecipanti – primo esempio di Arg di così ampio successo – suscitando l’interesse di network del mainstream mediale, quali CNN, ABC, BBC, New York Times, USA Today oltre a quello di moltissimi siti web.

Esulando dallo specifico esempio di The Beast, negli Arg ai partecipanti viene solitamente offerta un’esperienza ludica che alterna tre diverse fasi – esposizione, interazione e sfide – caratterizzate da un diverso grado di coinvolgimento attivo richiesto:

– le fasi di esposizione sono quelle in cui il ruolo dei partecipanti è passivo, in un classico flusso comunicativo unidirezionale tra emittente (gioco) e riceventi (giocatori). Sovente si tratta delle prime fasi, quelle in cui il partecipante riceve informazioni sufficienti a coinvolgerlo nel gioco e motivarlo/guidarlo verso le prove successive. Altrettanto spesso si tratta delle fasi conclusive, in cui il giocatore riceve il premio previsto per chi completa il percorso ludico.

– le fasi interattive sono quelle in cui gioco e giocatore entrano a più diretto contatto: negli Arg questo avviene ad esempio attraverso dialoghi tra i partecipanti e gli attori coinvolti nel gioco, che possono interagire al telefono, via web, tramite chat, msn, blog…oppure nel mondo reale.

– le fasi di sfida sono quelle in cui il giocatore è chiamato a superare determinate prove, nel mondo virtuale o in quello reale. Sono queste le fasi in cui il giocatore è nel gioco, e ne decide la progressione.

Ovviamente il maggiore o minore peso delle diverse fasi, determina la maggiore o minore capacità di coinvolgimento del gioco. È del resto altrettanto evidente come a queste considerazioni eminentemente ludiche ne vadano aggiunte altre di carattere economico: l’utilizzo di attori è certamente molto affascinante, ma comporta un notevole incremento dei costi. Considerazione a maggior ragione estendibile anche all’organizzazione di eventi live funzionali all’avanzamento del gioco.

Le fasi descritte sono di solito inserite in plot tipicamente investigativi, anche perché molto spesso gli Arg rielaborano i meccanismi di gioco tipici delle cacce al tesoro, come avviene ad esempio proprio in The Beast e in Lost Experience – Arg legato alla serie televisiva Lost, svoltosi tra la fine della seconda e l’inizio della terza stagione  – su cui ritornerò con un post specifico.

L’Arg è quindi un tipico prodotto del panorama mediale attuale per varie ragioni. Innanzitutto per la sua la natura intrinsecamente crossmediale, consona ad un’epoca in cui, come abbiamo visto, la dieta mediale degli individui si fa sempre più variegata.

La complessità degli enigmi proposti ai partecipanti, la caleidoscopica varietà delle competenze necessarie a risolverli, incrociate con il rilievo riconosciuto al web in questi giochi di realtà alternate,  rendono gli Arg un terreno fertile per lo sviluppo di dinamiche di intelligenza collettiva, come avvenuto per la community dei Cloudmakers, creata su una piattaforma yahoo group, per mettere in comune gli sforzi e arrivare in tempi più rapidi alla soluzione dell’enigma centrale di the Beast.  Community che oggi, a dieci anni dalla chiusura del gioco, conta ancora quasi settemila iscritti.

Infine l’ulteriore elemento di attualità dell’Arg risiede nel suo essere un prodotto ibrido, al confine tra narrazione e gioco, tra intrattenimento e marketing, capace di coinvolgere i partecipanti in un esperienza ludica che, al contempo, può essere (e quasi sempre è) spazio promozionale per una più ampia saga transmediale, ma anche per prodotti di intrattenimento più tradizionali, come film, serie televisive, dischi. Questo in funzione di due fondamentali caratteristiche:

– da un lato un Arg, chiedendo ai partecipanti di prendere parte ad eventi, facendoli interagire, magari telefonicamente, con i personaggi del gioco, si presenta come vero e proprio strumento di marketing esperienziale: fidelizza al brand, permettendo ai giocatori di esperirlo nella propria quotidianità.

– dall’altro lato, come detto, la complessità del mistero, e le competenze necessarie per risolverlo, creano negli utenti la necessità di condividere idee e deduzioni, per aumentare le possibilità di trovare la soluzione dell’enigma in tempo utile: i partecipanti al gioco si organizzano attraverso i canali del social networking. L’Arg diventa così motore per la nascita di comunità virtuali che sono sempre più spesso elemento fondamentale per la creazione di uno zoccolo duro di affezionati e fedelissimi del prodotto/servizio che attraverso l’Arg si è cercato di lanciare.

Per tutte queste caratteristiche l’Arg non solo è un prodotto esemplare di questi anni ipermediati, ma anche una sorta di modello in scala ridotta del più ampio fenomeno della narrazione transmediale, in cui è spesso inserito come singolo segmento.

Per chi volesse approfondire l’argomento rimando al sito dell’Alternate Reality Gaming Network, una della più complete ed aggiornate fonti di informazione sull’argomento.

A presto

Cor.P

Crowdsourcing…ancora sull’intelligenza collettiva


…prima di arrivare ai punti di più diretto contatto tra le dinamiche dell’intelligenza collettiva e la produzione e/o fruizione di universi narrativi transmediali, mi soffermo su un fenomeno – quello del crowdsourcing – certamente esemplare delle dinamiche cognitive descritte da Pierre Levy.

…neologismo anglofono creato da Jeff Howe  attraverso la crasi dei termini crowd ed outsorcing, in parole estremamente semplici individua un processo in cui si dia in outsorcing, alla massa di potenziali collaboratori contattabili grazie alla rete, il compito di arrivare ad un determinato obiettivo, realizzare un determinato output, risolvere un determinato problema.

Un tipico ambito di applicazione del crowdsourcing è quello pubblicitario, e la piattaforma  zooppa ne è forse l’esempio più celebre. Il meccanismo è molto semplice: l’azienda committente lancia un contest nella piattaforma, specificando il premio in denaro (o altri tipi di riconoscimento) che spetterà all’autore del lavoro selezionato. Ad esempio, mentre scrivo questo post, è in corso un contest di PosteItaliane. Nel brief  l’azienda descrive sinteticamente il prodotto da pubblicizzare, l’output richiesto ai partecipanti (in questo caso un video), il target, l’obiettivo della campagna, i mezzi attraverso i quali verrà diffuso il video selezionato, il premio finale (13.000 euro) ed altre informazioni utili per la realizzazione del video (tone of voice, requirements, valori da comunicare…).

In questo contesto il committente ha il vantaggio di ricevere, a fronte di un budget piuttosto ridotto (solitamente compreso tra i 5.000 ed 15.000 euro) una quantità di proposte assai elevata. Dal canto loro i creativi ci guadagnano i soldi, se vincono, visibilità quando partecipano, ed esperienza se sono alle prime armi. E, ovviamente, ha il suo introito anche la piattaforma che mette a disposizione i suoi ambienti.

Un esempio di applicazione del crowdsourcing in ambito editoriale è quello della ristrutturazione del sito web di wired, compiutasi a partire dallo scorso ottobre, per la quale era stato aperto un apposito spazio  in cui raccogliere idee e proposte concrete in crowdsourcing. Quanto invece al settore dell’entertainment, un caso interessante, che però approfondirò in un post successivo, è quello della novelization del Doctor Who, per la quale sono state raccolte, e poi selezionate, le proposte editoriali ricevute dai fan della serie televisiva.

Per chi sul crowdsourcing volesse un primo approfondimento, non monocordemente entusiastico,  rimando all’agile e stimolante libro (scaricabile gratuitamente in formato .pdf) di Stefano Terragrossa che ne mette in luce anche  aspetti negativi.  Segnalo inoltre il video seguente, molto interessante, che fa intuire come il crowdsourcing, pur presentando dei punti di contatto con la logica operativa dell’open source,  ne vada tenuto distinto per il forte ancoraggio al mondo aziendale che lo permea. In estrema sintesi, e senza alcuna intenzione di inquadramento valoriale da parte mia, nell’open source l’intelligenza collettiva lavora per la comunità, mentre nel crowdsourcing lavora per il committente (che può essere, ma solitamente non è, la comunità stessa).

A presto.

Cor.P

Scenario: l’intelligenza collettiva e la narrazione crossmediale (2)


…riprendo il discorso sull’intelligenza collettiva – così come descritta nel testo fondativo di Pierre Levy – iniziato nel post precedente.

Come visto, per il filosofo francesce il passaggio cognitivo fondamentale va individuato nell’evoluzione dal cogito cartesiano ad un cogitamus in cui le intelligenze individuali non si fondono in un ammasso indistinto ma, grazie al contatto reciproco, sviluppano ulteriori potenzialità in un processo di crescita, differenziazione e di «mutuo rilancio delle specificità».
Cade quindi il rilievo della firma, l’autorialità si fa diffusa, e il luogo principe del sapere organizzato secondo i canoni tradizionali – l’enciclopedia – viene  sostituito dalla cosmopedia, immaginata da Levy come spazio del sapere prodotto dal lavoro dell’intelligenza collettiva.

L’enciclopedia è uno spazio monodimensionale, un cerchio chiuso, consultabile ma non modificabile, se non, a riprese successive, dagli stessi autori originari. Per dirla in gergo informatico, l’accesso al pubblico è consentito in sola lettura, ed il ruolo di chi realizza l’enciclopedia rimane ben distinto da quello di chi la utilizza.

Nella cosmopedia il faccia a faccia con un’immagine fissa ed un testo predefinito è invece sostituito da un elevatissimo numero di forme di espressione/interazione:

«immagine fissa, immagine animata, suono, simulazioni interattive, mappe interattive, sistemi esperti, ideografie dinamiche, realtà virtuali, vite artificiali ecc. Al limite la cosmopedia contiene tante semiotiche e tanti tipi di rappresentazione quanti se ne possono trovare nel mondo stesso. […] Come il mondo la cosmopedia non si esplora solo discorsivamente ma anche attraverso modalità sensibili […]. Il sapere cosmopedico ci avvicina al mondo vissuto, piuttosto che allontanarcene.[1]»

In uno spazio del sapere di questo tipo – di cui oggi colpisce l’innegabile vicinanza a quel mondo di internet che negli anni in cui Levy portava a termine il suo testo fondamentale era ancora agli albori, almeno nel suo uso per scopi civili – a seconda delle zone di utilizzo e dei percorsi di esplorazione, le gerarchie tra lettori ed autori mutano continuamente. Così il soggetto che consulta una voce relativa alla chimica, potrà a sua volta inserire nuovi enunciati relativi, ad esempio,  alla storia dell’arte o a qualsiasi altro ambito in cui abbia maggiori competenze specialistiche. Quindi, in estrema ed efficace sintesi, a differenza di quanto avviene nell’enciclopedia,

«nella cosmopedia ogni lettura è una scrittura»[2].

In uno scenario in cui l’accento non è più sulle differenze tra i diversi medium, ma piuttosto sulle loro possibilità di dialogo, e sull’intescambiabilità e adattabilità dei contenuti, così come su quella dei ruoli di autore e di spettatore, si registra una tendenza del tutto analoga nella progressiva liquefazione dei confini tra le diverse aree del sapere. Si pensi ad esempio al dialogo sempre più fitto tra esponenti di discipline medico-scientifiche e quelli di discipline religioso-filosofiche, imposto dalle questioni etico-scientifiche sollevate dallo sviluppo dell’ingegneria genetica.

Oppure, venendo all’industria dell’intrattenimento, si consideri l’utilizzo di prodotti videoludici come strumenti di studio, come accaduto per la serie di videogiochi di simulazione di vita The Simsdistribuita dalla EA Games ed ideata da Will Wright – divenuta oggetto e strumento di studio in prestigiose aule accademiche. 

Il gioco è basato sul controllo dei Sim, esseri umani virtuali, singoli e in famiglia, le cui attività quotidiane devono essere guidate in modo da mantenerli in buona salute, di farli progredire nelle loro attività professionali, di assicurare loro un’adeguata vita sociale. Alcune famiglie sono già preinstallate nel gioco, e i loro personaggi sono diventati popolari. Un’altra caratteristica che gode di grande popolarità è la lingua immaginaria parlata dai Sims, il Simlish, nella quale alcuni artisti hanno addirittura creato versioni delle loro canzoni, come i Depeche Mode con Suffer Well per The Sims 2.

The Sims, soprattutto, è stato il primo simulatore di vita videoludico e ha introdotto una particolarità copiata poi da altri giochi simili: le 8 barre che indicano i bisogni dei personaggi (fame, igiene, energia, relazioni, comfort, vescica, divertimento, ambiente). La felicità (un’altra barra che viene sintetizzata anche dal prisma sopra la testa del Sim) è stabilita dal valore medio di queste barre. La massima felicità si ha quando la barra è completamente verde; man mano si scende a verde chiaro, giallo, arancione e rosso. Se la felicità scende a livelli negativi (rosso) il Sim non sarà sereno e non svolgerà determinate azioni impegnative, per esempio studiare, dipingere, suonare uno strumento o giocare a scacchi (che sono le azioni che permettono di aumentare il livello delle abilità), e non avrà neanche voglia di cercarsi un lavoro. The Sims, essendo un simulatore di vita reale, prevede inoltre la nascita, la crescita e la morte dei Sim.

E’ proprio questa credibilità nel simulare la vita reale che ha reso The Sims oggetto di molteplici e dotte analisi accademiche, ma anche strumento di studio, ad esempio nelle aule del corso di laurea triennale in Economia e Gestione dei Servizi presso la Facoltà di Economia dell’Università Cattolica del Sacro Cuore a Roma, dove si è rivelato un supporto formativo utile per verificare che tutte le nozioni necessarie a pianificare e realizzare un’iniziativa imprenditoriale fossero state recepite dagli studenti del corso.

Un ulteriore esempio – più vicino alla mia esperienza professionale – degli innumerevoli settori in cui la commistione disciplinare sta facendo sentire significativamente la sua influenza  è quello della diffusione delle statistiche ufficiali – cioè di quelle statistiche prodotte dagli Istituti Nazionali di Statistica (l’Istat in Italia) o da organismi sovranazionali, quali l’Eurostat – attraverso l’uso sempre più frequente delle tecniche dello Statistics Storytelling, un approccio alla presentazione dei dati statistici più mediatico e meno accademico-scientifico, nel tentativo di raccontare la statistica, inserendo i dati in un contesto, per quanto possibile, narrativo, allo scopo di  ottenere una fusione più accattivante tra il freddo mondo dei numeri e quello più caldo delle parole. Il ricercatore che opera in un Istituto Nazionale di Statistica, affascinato dal dato e dalla metodologia più evoluta e raffinata utilizzabile per stimarlo,  non può più evitare di acquisire i rudimenti necessari per diffondere in maniera adeguata la statistica ufficiale in questione, perché una statistica che non trova il suo pubblico è una statistica che non esiste.


Raccontare una storia statistica significa quindi inserire il dato statistico in un flusso testuale che ne incrementi la significatività e ne agevoli la comprensione, nella convinzione che gli utenti ricordino più facilmente le storie di numeri, che i numeri in se stessi.

L’adozione di queste tecniche richiede agli statistici lo sforzo di ibridare la propria professionalità e la disponibilità  a collaborare con chi lavora nell’ambito della comunicazione istituzionale, per attrarre l’attenzione del lettore con un titolo o un’immagine adeguata, dare vita e colore al numero con una storia appena tratteggiata eppure coinvolgente, incoraggiare i giornalisti ad utilizzare il dato statistico come uno strumento per aumentare l’impatto di ogni notizia s’accingano a fornire al pubblico.

Le storie statistiche e i dati che veicolano devono quindi informare e stimolare la discussione, ma mai essere, esse stesse, discutibili: non deve esistere contraddizione tra l’accuratezza del dato statistico e la capacità di attirare l’attenzione sullo stesso.

Una delle tecniche più semplici dello Statistics Storytelling è quella di legare il dato statistico alla vita quotidiana dei cittadini. Quindi, ad esempio, in un comunicato stampa in cui si presentano dati sull’incremento del costo del petrolio non titolare  «Il prezzo dei prodotti petroliferi salirà nel prossimo semestre» ma preferire «I consumatori spenderanno di più per il riscaldamento domestico nel prossimo inverno». Questo renderà l’informazione statistica più appetibile sia per i giornalisti, che avranno già a disposizione un’indicazione su come suscitare l’interesse dei lettori, che sull’utente finale, coinvolto già a partire dal primo termine del titolo.

The Sims e lo Statistics Storytelling sono solo due dei moltissimi esempi che dimostrano come i confini tra discipline, come quelli tra strumenti di apprendimento e strumenti di intrattenimento, si facciano sempre più sfumati…

«Contrariamente a quanto credono, i tecnici hanno molto da imparare dagli umanisti. Simmetricamente [questi ultimi] devono fare lo sforzo di impadronirsi di nuovi strumenti  […]. In mancanza di un simile incontro otterremmo, in fin dei conti, solo una tecnica vuota e una cultura  morta.[3]»

Umanisti e scienziati non possono più prescindere dal reciproco arricchimento. Non più quindi due distinte torri d’avorio, ma due pilastri che sostengono un ponte che vede un progressivo ed inarrestabile incremento degli attraversamenti.

E secondo Levy questo incontro e reciproco arricchimento dei saperi trova luogo ideale di realizzazione proprio nella cosmopedia,

«che dissolve le differenze tra le discipline, in quanto territori su cui si esercitano dei poteri, per lasciar sussistere solo alcune zone dalle frontiere fluide […]. A una organizzazione rigida dei saperi in discipline discrete e gerarchizzate […] si sostituisce dunque una topologia  continua e dinamica».[4]

…per ora mi fermo, ma non ho ancora finito…ho detto ancora troppo poco sulla seconda parte del titolo di questa serie di post…’Scenario: l’intelligenza collettiva e la narrazione crossmediale‘…appunto… ‘e la narrazione crossmediale’?

…ancora un po’ di pazienza…

A presto

Cor.P


[1] P.Levy, L’intelligenza collettiva. Per un’antropologia del cyberspazio, Feltrinelli, 1996, pag.210.

[2] P.Levy, op.cit., pag.211.

[3] P.Levy, op.cit., pag.133.

[4] P.Levy, op.cit., pag.211.

Scenario: l’intelligenza collettiva e la narrazione crossmediale (1)


L’elencazione dei principali caratteri ricorrenti della narrazione crossmediale, conclusa con il post precedente, conferma quanto gli universi finzionali che si sviluppano lungo coordinate transmediali si caratterizzino per una complessità che non sempre rende agevole l’orientamento dello spettatore che intenda esplorarli fruendone in maniera non monomediale. Semplificando al massimo, il fan di questi franchise si trova di fronte a panorami narrativi così articolati, in ampiezza e profondità, da poter esser più agevolmente esplorati insieme ad altri appassionati, con i quali poter condividere (o potersi confrontare su) una parte del cammino fruitivo nel franchise. Tutto questo, nella pratica, può semplicemente tradursi nella ricerca nei forum online del trucco per completare il videogioco Enter the Matrix, o nel rintracciare in uno dei tanti fansite dedicati alla serie di Matt Groening il codice di quella puntata  dei Simpson la cui sigla iniziale sembra prendere il via da dove è terminato il lungometraggio cinematografico, o infine nello scambio di suggerimenti e dritte per apprendere più rapidamente i rudimenti delle lingue artificiali Na’vi o Klingon.
In altri termini le dinamiche di culto che spesso si innestano attorno a queste saghe, unite alla intrinseca complessità delle stesse (alimentata da quel worldbuilding storytelling su cui ritorno spesso e volentieri), portano alla creazione di comunità di fan, il cui fine principale è l’approfondimento della conoscenza e la diffusione della passione intorno ad alcuni tra i principali franchise transmediali: Avatar, Matrix, I Simpson, Buffy, Lost, 24, Twin Peaks, Star Wars…La nascita, lo sviluppo – direi la proliferazione – di queste comunità sono state innegabilmente agevolate dalla disponibilità del web, ma è comunque opportuno ricordare che il fenomeno delle fancommunity è nettamente precedente all’avvento di Internet, più ovvio e doveroso esempio ne sia la comunità dei fan di Star Trek.
E’ quindi evidente che a favorire l’affermazione della nXm è stato anche questo contesto sociale e tecnologico in cui le dinamiche dell’intelligenza collettiva, teorizzate e descritte da Pierre Levy nella prima metà degli anni novanta, hanno trovato piena realizzazione operativa, rivelandosi utili, nel settore dell’entertainment, a che il pubblico potesse orientarsi, supportandosi reciprocamente, all’interno di questi complessi e stratificati universi finzionali.

Di intelligenza collettiva si sente spesso parlare, quasi fosse una sorta di etichetta o slogan evergreen…proprio per questo penso valga la pena risalire alle origini di questo concetto e ritornare su alcuni passaggi fondamentali del testo fondativo di Pierre Levy, che pubblica Intelligenza collettiva. Per un’antropologia del Cyberspazio nel 1994, descrivendo un futuro prossimo (il nostro presente), in cui il sapere viene alimentato e condiviso grazie alla velocità, accessibilità e globalità delle reti informatiche.

Levy teorizza un rinnovamento del legame sociale, fondato sulla condivisione del sapere e definisce l’intelligenza collettiva come

« […] un’intelligenza distribuita ovunque, continuamente valorizzata, coordinata in tempo reale, che porta ad una mobilitazione effettiva delle competenze.»

Quindi un’intelligenza che, in quanto distribuita ovunque, è diffusa e condivisa dal genere umano. Del resto, secondo l’antropologo, il sapere della comunità umana non è più un sapere comune, perché non esiste un individuo, o anche un gruppo, che possegga tutte le conoscenze. È, piuttosto, un sapere collettivo:

«il sapere non è niente di diverso da quello che sa la gente.»

Inoltre, nel suo essere coordinata in tempo reale, l’intelligenza collettiva implica, oltre un certa soglia quantitativa,“dispositivi di comunicazione che dipendono obbligatoriamente dalle tecnologie digitali dell’informazione”.
È quindi principalmente grazie allo sviluppo delle tecnologie digitali che è possibile articolare ed organizzare i saperi individuali in una ben più fruttuosa e strutturata intelligenza collettiva. Una semplificazione sintetica ed efficace di quanto detto sin qui, la fornisce lo stesso Levy, nel corso di un’intervista del 1995:

«oggi se due persone distanti sanno due cose complementari, per il tramite delle nuove tecnologie possono davvero entrare in comunicazione l’una con l’altra, scambiare il loro sapere, cooperare. Detto in modo assai generale, per grandi linee, è questa in fondo l’intelligenza collettiva .»

L’esempio a cui più comunemente ci si riferisce quando si deve dimostrare quali frutti può portare questo tipo di intelligenza, è quello di Wikipedia, enciclopedia web le cui voci sono alimentate dal lavoro volontario di esperti, che mettono a disposizione il loro tempo e le loro competenze, per costruire questa summa del sapere ai tempi della rete, la cui qualità viene (o dovrebbe essere) garantita dalla possibilità, per chiunque vi acceda, di verificare l’affidabilità delle voci e, se necessario, correggerle e/o ampliarle.
Altro esempio molto noto è quello di Linux, sistema operativo open source sviluppato grazie al lavoro volontario di programmatori sparsi per tutto il globo, organizzatisi attraverso la rete web in veri e propri gruppi di lavoro virtuali. Molta parte delle sue ottime prestazioni e del suo conseguente successo, deriva proprio dal contributo fornito da sviluppatori volontari che, sfruttando gli strumenti del social networking, hanno messo in comune gli sforzi per sviluppare le funzionalità del sistema operativo, in una fattiva e fruttuosa realizzazione delle potenzialità dell’intelligenza collettiva.
Così un Linux User Group (LUG) è, appunto, un gruppo formato da sviluppatori/utilizzatori che condividono la stessa passione per il software open source e in particolare per Linux, e utilizzano il web per scambiarsi consigli, competenze ed esperienze. I Lug italiani ogni anno promuovono ed organizzano il Linux Day, una manifestazione che ha lo scopo di promuovere il sistema operativo Linux e il software libero, avvicinare e aiutare nuovi utenti, attraverso un insieme di eventi contemporanei organizzati in diverse città d’Italia.
La prima edizione del Linux Day si è tenuta il 1º dicembre 2001 in circa quaranta città sparse su tutto il territorio nazionale. Il successo via via crescente, ha reso il Linux Day la principale manifestazione italiana no profit dedicata a Linux e al software libero. L’ultima edizione si è svolta il 23 ottobre 2010, con manifestazioni locali in 135 città (www.linuxday.it).
Arduino rappresenta invece la via italiana all’hardware opensource: è un microprocessore in vendita online a prezzo molto basso (circa 40 dollari) , che il suo ideatore Massimo Banzi offre a chi lo voglia utilizzare, modificare, e vendere a sua volta, pubblicando in rete gli schemi elettronici e le altre specifiche di prodotto. In sostanza gli acquirenti del microprocessore, anche in questo caso organizzatisi in comunità virtuali, svolgono anche attività di ricerca e sviluppo per Arduino, potendolo modificare ed upgradare a loro piacimento, con l’unico obbligo che anche queste evoluzioni derivate debbano riportare, se pubblicate in rete, il marchio Arduino, e adottare la stessa licenza Creative Commons (o altre simili) utilizzata per i software opensource.

I casi di Wikipedia, Linux e Arduino evidenziano come questo tipo di approccio comporti una democratizzazione della conoscenza, che proprio in quanto diffusa e mutevole, esce dalle classiche strutture gerarchiche, tipiche di una più tradizionale organizzazione accademica del sapere, cosicché l’intellettuale smette di esistere nei termini di essere isolato nella torre d’avorio.
In questo contesto le competenze e la capacità di condividerle diventano più rilevanti del nome di chi ne è portatore. La figura classica dell’intellettuale viene sostituita da quella dell’intellettuale collettivo che genera un mondo virtuale che esprime le relazioni che sono al suo interno, i problemi che lo mettono in movimento, le immagini che si forma del proprio ambiente, la sua memoria, il suo sapere in generale. I membri dell’intellettuale collettivo producono insieme, riorganizzano e modificano continuamente il mondo virtuale di cui la loro comunità è espressione: l’intellettuale collettivo non cessa di imparare e di inventare.

Secondo Levy il passaggio fondamentale va individuato nell’evoluzione dal cogito cartesiano ad un cogitamus in cui le intelligenze individuali non si fondono in un ammasso indistinto, ma sviluppano ulteriori potenzialità grazie al contatto reciproco, in un processo di crescita, differenziazione e di «mutuo rilancio delle specificità» .
In questo contesto l’individuo ha tante “identità” nello Spazio del sapere, quanti sono gli intellettuali collettivi a cui partecipa e che contribuisce a creare.
Cade quindi il rilievo della firma, e l’autorialità si fa diffusa, mentre si fanno incerti i confini tra docenti e discenti, come quelli fra autori e lettori, registi, attori e spettatori…perchè al di là delle ovvie ricadute in ambito più tradizionalmente scientifico/tecnologico, l’intelligenza collettiva da prova di se anche in ambiti più direttamente legati al mondo dell’entertainment, come ho accennato all’inizio di questo post  e come descriverò più approfonditamente nei post successivi…

Buona Pasqua a tutti!

A presto

Cor.P

%d blogger hanno fatto clic su Mi Piace per questo: