Copyright e altri steccati. Gli ecosistemi a rischio del Web

Un archivio può essere assimilato a una mappa. Come la mappa seleziona e rappresenta le caratteristiche di un territorio, così l’archivio aggrega e rende accessibili i paesaggi della conoscenza. L’Internet stessa può essere concepita come un archivio enorme e dinamico che accumula conoscenza immediatamente disponibile e converte in informazione le crescenti interazioni e comunicazioni mediate dal digitale. Ma il Web, in quanto gigantesca piattaforma di condivisione di contenuti, ha reso praticamente sconfinato il territorio della conoscenza, creando due ordini di problemi. Da un lato ha ridotto il valore economico dell’informazione disaggregata, livellando verso il basso la qualità media prodotta, dall’altro ha conferito un enorme valore all’informazione aggregata e un proporzionale potere alle piattaforme centralizzate che la aggregano. Conseguentemente la conoscenza si è scissa in due se non in tre livelli. Il primo è quello della informazione non valorizzabile, il secondo è quello dell’informazione come prodotto commerciale, il terzo è quello dell’informazione aggregata come strumento di valorizzazione. L’informazione prodotta più è “quotidiana” e meno è valorizzabile poiché la quantità dell’offerta e la ridondanza della condivisione la rendono difficilmente appropriabile nel web. Altre tipologie di contenuti in virtù della loro tendenziale “unicità” si rendono più facilmente appropriabili e valorizzabili, e questi sono i prodotti più propriamente creativi da un lato, come la musica o il cinema, e la conoscenza specialistica e scientifica dall’altro. Anche questi ultimi subiscono l’influenza del potenziale di produzione e condivisione a basso costo della rete, ma sono più “difendibili” dal punto di vista tecnologico e legale in termini di proprietà intellettuale e di valore commerciale. Il potenziale di condivisione si trasforma in questi casi in un potenziale di diffusione e sfruttamento che bilancia l’abbondanza dell’offerta, favorendo la formazione di grandi monopoli. Per quanto riguarda l’informazione aggregata valorizzante, i cosiddetti big data, essa permette di estrarre valore da tutti i contenuti in termini pubblicitari e di marketing, sia commerciale che politico. In quest’ultimo caso, l’informazione, per quanto prodotta socialmente, è integralmente ed esclusivamente appropriabile nel web centralizzato delle grandi piattaforme.

In questo quadro si pone un problema di rapporto strutturale tra cultura, economia e società, in quanto, ai vari livelli della conoscenza, sussistono enormi problemi di organizzazione e formazione della conoscenza, nonché enormi barriere di accesso e asimmetrie di potere. Questi squilibri, che hanno motivazioni al tempo stesso tecnologiche, economiche e normative, sono quotidianamente dibattuti soprattutto sul fronte dell’informazione quotidiana strettamente legata alla sua diffusione canalizzata dai social network, che da un lato favoriscono un’informazione non filtrata e distorta, così come un condizionamento surrettizio dell’opinione pubblica, dall’altro penalizzano l’informazione di qualità che non riesce ad essere valorizzata economicamente e conseguentemente non regge il mercato. Alcune notizie e circostanze recenti fanno comprendere come si sta evolvendo il quadro e quale strada si stia imboccando per tentare di arginare questo fenomeno che visibilmente si ritiene stia minando, insieme ad altri fattori, gli equilibri più profondi delle democrazie avanzate. L’impressione è che sia scarsa la consapevolezza che i diversi livelli culturali e informativi sono correlati tra loro e che anche gli elementi del sistema -tecnologico, economico e normativo- non sono separabili.

Sul piano della conoscenza appropriabile, e in particolare quella scientifica e specialistica, diventa sempre più stringente l’azione di enclosure dei beni comuni immateriali, come dimostrano le vicende degli archivi online di free book e paper scientifici come Sci-Hub, BookFi e LibGen. Da anni, in seguito a lunghissime cause legali intentate da grandi editori scientifici come l’olandese Elsevier, questi archivi “pirata” giocano a rimpiattino con i tribunali per continuare a svolgere la loro missione attraverso siti mirror o domini .onion su deep web. Parliamo di archivi che mettono a disposizione gratuitamente della comunità scientifica planetaria qualcosa come 2 milioni di pubblicazioni (LibGen) e 70 milioni di paper scientifici (Sci-Hub). Sci-Hub, ad esempio, è stato creato nel 2011 dalla neuroscienziata e programmatrice kazaka Alexandra Elbakyan per consentire l’accesso alla conoscenza a ricercatori indipendenti o a università di paesi che non possono permettersi di attingere alle riviste in paywall a causa dei costi elevatissimi. Al di là della evidente illegalità di questi siti, la loro legittimità deve essere valutata alla luce delle barriere e delle asimmetrie generate dal regime di oligopolio della grande editoria scientifica, se è vero che nel 2018 la metà di tutte le pubblicazioni scientifiche sono state pubblicate da 6 editori appartenenti a solo 4 paesi: Elsevier (Olanda), Wiley-Blackwell (USA), Springer (Germania), Taylor & Francis (Regno Unito), American Chemical Society (USA) e Sage Publishing (USA). Si tratta di 6 grandi sorelle dell’editoria che vantano redditività stellari fondate su strette relazioni con le accademie più prestigiose e con i grandi gruppi industriali, e quindi anche su fondi pubblici erogati per gli abbonamenti a università e biblioteche, nonché sul lavoro gratuito di plotoni di ricercatori e docenti. Basti pensare che la sola Elsevier nel 2017 ha totalizzato quasi 2 miliardi e 400 milioni di ricavi vendendo a peso d’oro le sue pubblicazioni. Si tratta perciò di una vera e propria guerra, scatenata dalle tecnologie informatiche, tra monopoli estrattivi ed esclusivi che dominano le istituzioni accademiche e una comunità informale planetaria che combatte per un sapere democratico, per il diritto alla conoscenza e per la collaborazione scientifica. Una comunità legata alla cultura hacker che difende anche a spada tratta, forse ormai in modo anacronistico, il carattere open e decentrato della rete, sia riferito ai software sia ai contenuti, in una battaglia che ha avuto anche i suoi martiri: il brillante informatico Aaron Swartz, autore nel 2008 del “Guerrilla Open Access Manifesto“, si è suicidato nel 2013 a ventisei anni, probabilmente perché rischiava una condanna a 35 anni di carcere per aver scaricato illegalmente diversi milioni di pubblicazioni dal database dell’archivio a pagamento JSTOR.

Sul fronte dell’informazione giornalistica, che è intrecciata alla questione dei social, il discorso è molto più complicato, perché muove interessi giganteschi e la guerra in atto non è tra alto e basso, ma tra grandi potentati che si contendono risorse e potere più direttamente connesso alla sfera politica. La rivoluzione digitale ha scompaginato com’è noto la struttura dell’industria culturale otto-novecentesca in modo analogo a quanto accadde nel Rinascimento con l’introduzione dei caratteri mobili di Gutenberg. Anche in quell’epoca il nuovo medium, la tipografia moderna, ha provocato nel tempo mutamenti radicali ben al di là della sfera culturale, nelle strutture socioeconomiche e negli equilibri geopolitici. Ed è lì che nascono i confltti sul tema della proprietà intellettuale come strumento di sfruttamento economico e controllo politico. Cresce e si democratizza la produzione, si diffonde la libertà di pensiero e s’infrange la sacralità di autorità millenarie, ma nascono anche nuove forme di controllo, censura e condizionamento. Il Web, come la stampa, ha avuto i suoi impatti giganteschi e sta vivendo esso stesso trasformazioni derivate dai feedback di quegli impatti.

L’informazione veicolata dalle grandi piattaforme non è più un’informazione autoprodotta come alle origini del Web, non è il frutto delle intelligenze organizzate dei terminali della rete ma un gigantesco e informe flusso le cui configurazioni personalizzate sono governate e ricombinate da un’intelligenza artificiale. Il medium perciò non è mai neutrale, ma questo medium lo è meno di tutti gli altri che lo hanno preceduto. Il flusso per essere valorizzato nel suo insieme deve essere centralizzato, e per essere centralizzato deve essere generato e gestito all’interno di un sistema chiuso e frammentato. Che significa? Che non deve generare strutture organizzate al suo interno ma connettere tutti gli individui al centro, e le informazioni al suo interno non devono essere disponibili nel loro complesso né all’interno né all’esterno. Ciò significa che non c’è spazio in questa struttura per l’organizzazione e la stabilizzazione della conoscenza. Semplicemente catastrofico…

Non esiste perciò una questione legata alla proprietà e alla qualità. I social assorbono tutto in un flusso indistinto nel quale la qualità semplicemente non è un criterio che l’intelligenza algoritmica possa assumere e riconoscere. Può riconoscere e alimentare l’emotività che si esprime attraverso le scelte compatibili con la struttura binaria della comunicazione social -amore e rabbia, riso e pianto, stupore e tedio-, favorendo i contenuti che stimolano queste reazioni. Poiché non si capisce questa valenza cognitiva, e chiaramente anche sociopolitica, della struttura intrinseca delle tecnologie, si cerca di contrastare gli impatti ormai evidenti per tutti, tra cui il nesso tra “post-verità” e populismi, e i rischi di manipolabilità di simili strutture centralizzate e chiuse, rilanciando vecchie strutture e cercando di imporre le enclosure proprietarie anche nella comunicazione e nell’informazione più dinamica e di massa. E lo si fa facendo leva esclusivamente sugli strumenti normativi. Si è tenuta infatti il 12 settembre scorso la votazione al Parlamento europeo con cui è stata approvata una direttiva molto controversa, la “direttiva sul diritto d’autore nel mercato unico digitale“, che tra le altre cose prevede l’introduzione di una “Censorship machine” e della “link tax”. Si tratta da un lato di introdurre un filtraggio automatico sugli upload di tutti gli utenti che riconosca contenuti coperti da diritti di proprietà intellettuale, dall’altro di impedire i cosiddetti snippets -la preview di descrizione dei link molto diffusa sui social- e obbligare social e motori di ricerca a riconoscere compensazioni agli aventi diritto. Prestigiose firme giornalistiche, perlopiù inviati esteri di grandi testate, hanno firmato una lettera di supporto alla legge, soprattutto in merito ai “diritti ancillari”, o “related rights” sullo sfruttamento commerciale “indiretto” nella diffusione di contenuti giornalistici ed editoriali attraverso le piattaforme Web. Il loro ragionamento è “elementare”. I gruppi editoriali faticano a mettere a valore i contenuti e non investono più nella produzione di qualità, mentre le piattaforme traggono profitti enormi dalla diffusione di contenuti ad accesso gratuito sempre più scadenti. Questo circolo vizioso potrebbe essere spezzato se i costi di produzione fossero compensati dalle piattaforme. Elementare solo a parole… Di ben diverso avviso è il Partito pirata che ha condotto una battaglia in parlamento europeo per contrastare la legge, soprattutto da parte della deputata del Piraten partei tedesco Julia Reda. La loro avversione deriva da considerazioni di principio e valutazioni empiriche. Queste ultime sono relative agli effetti prodotti da una legge molto simile che è stata introdotta in Germania nel 2013, che si è rivelata un completo fallimento. L’imposizione dei diritti ancillari ha generato un abbattimento della visibilità dei produttori di contenuti che rivendicavano le compensazioni inducendoli a concedere licenze gratuite alle piattaforme. Tuttavia le loro concessioni in alcuni casi erano limitate nell’ambito di accordi diretti con le grandi piattaforme che escludevano i competitor più piccoli, contribuendo in questo modo a rafforzare i monopoli digitali. Inoltre, nel caso di una legge più stringente, rafforzata dal controllo centralizzato della Censorship machine, la fascia di editori indipendenti e attendibili medi e piccoli verrebbe penalizzata a tutto vantaggio dei grandi gruppi editoriali che potranno trovare accordi separati con le piattaforme, ma anche a vantaggio dei contenuti scadenti, provenienti da siti e profili fantasma di fakenews e propaganda, dai quali le piattaforme non avrebbero nulla da temere.

Tornando al quadro generale, il rischio che si intravede è che insistendo sul tema dei diritti di proprietà o dei diritti ancillari si finisca per favorire una spartizione monopolistica del Web tra grandi piattaforme e grandi editori che attraverso enclosure sempre più solide ed estese che restringe l’accesso alla qualità a favore di fasce molto limitate di utenti con forte potere di acquisto, mentre il libero accesso andrà ad alimentare gli enormi bacini delle piattaforme con contenuti scadenti funzionali soltanto allo sfruttamento commerciale e politico dei flussi di informazione.

La soluzione a questi problemi non è la chiusura ma soltanto una maggiore apertura e collaborazione finanziata dalle risorse esistenti. E per fare questo non ci si può limitare all’azione sul piano normativo. Occorre partire da un’azione normativa volta ad abbattere i monopoli imponendo la proprietà pubblica dei dati – accessibilità e riuso -, la disclosure degli algoritmi e l’interoperabilità delle piattaforme. In questo modo si favorirebbero processi strutturalmente rivoluzionari, la nascita di ecosistemi collaborativi capaci di innovare le tecnologie non soltanto in funzione del business ma anche in funzione dell’interesse pubblico e collettivo, facendo scaturire la qualità dei contenuti dal basso, da una nuova organizzazione e da una nuova cartografia della conoscenza.

Stefano Simoncini

28/3/2019 www.dinamopress.it

0 commenti

Lascia un Commento

Vuoi partecipare alla discussione?
Sentitevi liberi di contribuire!

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *