• Archivio Lavoro & Salute
  • Medicina Democratica
Log in or Register
Close
Lost your password?
Lavoro & Salute – Blog
Visita Rifondazione.it
  • Home
  • Archivio
    • Cronache Politiche
    • Cronache Sociali
    • Comitati di Lotta
    • Cronache di Lavoro
    • Cronache Sindacali
    • Movimenti di Liberazione
    • Altra Informazione
  • Sito LeS Cartaceo
  • Editoriali
  • Annali
  • Altro Blog
SFOGLIA IL GIORNALE INTERATTIVO
Chi è interessato a scrivere e distribuire la rivìsta nel suo posto di lavoro, o pubblicare una propria edizione territoriale di Lavoro e Salute, scriva a info@lavoroesalute.org Distribuito gratuitamente da 38 anni. A cura di operatori e operatrici della sanità. Finanziato dai promotori con il contributo dei lettori. Tutti i numeri in pdf www.lavoroesalute.org

  •  Seguici su Facebook Lavoro E Salute
  •  Seguimi su FacebookFranco Cilenti
Visita Medicina Democratica

LA RIVISTA NAZIONALE
MEDICINA DEMOCRATICA


Rifondazione Due per mille

Rifondazione Due per mille

Su La Testa – Argomenti per la rifondazione comunista

Su La Testa - Argomenti per la rifondazione comunista

Su La Testa - Argomenti per la rifondazione comunista

Sinistra Europea

Visita Sinistra Europea
Free Palestine
  • Intifada
  • OLP
  • Free Palestine FB Page

Blog Lavoro e Salute – Categorie

  • Ambiente e salute (2.117)
  • Blog (11.271)
    • Altra Informazione (9.550)
    • Comitati di Lotta (8.835)
    • Cronache di Lavoro (8.352)
    • Cronache Politiche (9.654)
    • Cronache Sindacali (7.670)
    • Cronache Sinistra Europea (7.890)
    • Cronache Sociali (9.524)
    • Culture (6.764)
    • Editoria Libera (5.177)
    • Movimenti di Liberazione (815)
    • Politiche di Rifondazione (8.998)
    • Storia e Lotte (5.890)
  • cronache sindacali (50)
  • Internazionale (1.570)
  • lavoratrici (31)
  • OSS sanità (11)
  • sanità e salute (4.915)
  • servizio sanitario privato (55)
  • sicurezza lavoro (1.579)
  • Uncategorized (96)

Archivio Settimanale

  • Giugno 20, 2022–Giugno 26, 2022
  • Giugno 13, 2022–Giugno 19, 2022
  • Giugno 6, 2022–Giugno 12, 2022
  • Maggio 30, 2022–Giugno 5, 2022
  • Maggio 23, 2022–Maggio 29, 2022
  • Maggio 16, 2022–Maggio 22, 2022
  • Maggio 9, 2022–Maggio 15, 2022
  • Maggio 2, 2022–Maggio 8, 2022
  • Aprile 25, 2022–Maggio 1, 2022
  • Aprile 18, 2022–Aprile 24, 2022
  • Aprile 11, 2022–Aprile 17, 2022
  • Aprile 4, 2022–Aprile 10, 2022
  • Marzo 28, 2022–Aprile 3, 2022
  • Marzo 21, 2022–Marzo 27, 2022
  • Marzo 14, 2022–Marzo 20, 2022

Archivio Mensile

  • Giugno 2022 (128)
  • Maggio 2022 (156)
  • Aprile 2022 (148)
  • Marzo 2022 (204)
  • Febbraio 2022 (178)
  • Gennaio 2022 (202)
  • Dicembre 2021 (210)
  • Novembre 2021 (181)
  • Ottobre 2021 (152)
  • Settembre 2021 (144)
  • Agosto 2021 (68)
  • Luglio 2021 (180)
  • Giugno 2021 (167)
  • Maggio 2021 (192)
  • Aprile 2021 (219)
  • Marzo 2021 (200)
  • Febbraio 2021 (174)
  • Gennaio 2021 (203)
  • Dicembre 2020 (211)
  • Novembre 2020 (205)
  • Ottobre 2020 (192)
  • Settembre 2020 (149)
  • Agosto 2020 (124)
  • Luglio 2020 (184)
  • Giugno 2020 (123)
  • Maggio 2020 (135)
  • Aprile 2020 (166)
  • Marzo 2020 (221)
  • Febbraio 2020 (161)
  • Gennaio 2020 (148)
  • Dicembre 2019 (143)
  • Novembre 2019 (127)
  • Ottobre 2019 (113)
  • Settembre 2019 (114)
  • Agosto 2019 (83)
  • Luglio 2019 (116)
  • Giugno 2019 (103)
  • Maggio 2019 (120)
  • Aprile 2019 (107)
  • Marzo 2019 (114)
  • Febbraio 2019 (111)
  • Gennaio 2019 (106)
  • Dicembre 2018 (117)
  • Novembre 2018 (100)
  • Ottobre 2018 (112)
  • Settembre 2018 (99)
  • Agosto 2018 (91)
  • Luglio 2018 (104)
  • Giugno 2018 (102)
  • Maggio 2018 (103)
  • Aprile 2018 (96)
  • Marzo 2018 (108)
  • Febbraio 2018 (98)
  • Gennaio 2018 (86)
  • Dicembre 2017 (81)
  • Novembre 2017 (100)
  • Ottobre 2017 (98)
  • Settembre 2017 (73)
  • Agosto 2017 (50)
  • Luglio 2017 (115)
  • Giugno 2017 (100)
  • Maggio 2017 (94)
  • Aprile 2017 (108)
  • Marzo 2017 (112)
  • Febbraio 2017 (139)
  • Gennaio 2017 (126)
  • Dicembre 2016 (109)
  • Novembre 2016 (94)
  • Ottobre 2016 (97)
  • Settembre 2016 (66)
  • Agosto 2016 (37)
  • Luglio 2016 (82)
  • Giugno 2016 (76)
  • Maggio 2016 (65)
  • Aprile 2016 (78)
  • Marzo 2016 (67)
  • Febbraio 2016 (71)
  • Gennaio 2016 (71)
  • Dicembre 2015 (87)
  • Novembre 2015 (90)
  • Ottobre 2015 (91)
  • Settembre 2015 (64)
  • Agosto 2015 (28)
  • Luglio 2015 (71)
  • Giugno 2015 (69)
  • Maggio 2015 (77)
  • Aprile 2015 (87)
  • Marzo 2015 (96)
  • Febbraio 2015 (105)
  • Gennaio 2015 (107)
  • Dicembre 2014 (101)
  • Novembre 2014 (89)
  • Ottobre 2014 (120)
  • Settembre 2014 (34)
  • Agosto 2014 (18)
  • Luglio 2014 (33)
  • Giugno 2014 (33)
  • Maggio 2014 (29)
  • Aprile 2014 (27)
  • Marzo 2014 (65)
  • Febbraio 2014 (22)
  • Ottobre 2013 (11)

Commenti di Mauro Biani

    Visitatori Blog da Ottobre 2016

    • 43Questo articolo:
    • 2419709Totale letture:
    • 995439Totale visitatori:
    • 352Ieri:
    • 13691Visitatori per mese in corso:
    • 2Utenti attualmente in linea:
    Altra Informazione, Blog, Comitati di Lotta, Cronache Politiche, Cronache Sinistra Europea, Cronache Sociali, Culture, Editoria Libera, Politiche di Rifondazione, Storia e Lotte — Gennaio 25, 2022 10:43 am

    Invocare libertà impugnando un cellulare con la preoccupazione di postare al più presto sulle piattaforme social tutta la sete di libertà posseduta tradisce l’impossibilità di liberarsi

    Culture e pratiche di sorveglianza. In balia dell’Incoscienza Artificiale e dell’algocrazia

    Pubblicato da franco.cilenti

    «Il punto è che non esiste una protesi cerebrale artificiale che sia intelligente; il calcolo senza significato può al massimo esprimere l’ossimoro dell’“intelligenza incosciente” […] La perdita di conoscenza e di autonomia fanno parte di un processo iniziato nel Ventunesimo secolo, nel corso del quale stiamo invertendo il rapporto gerarchico tra noi e le macchine. Oggi siamo sempre più portati a mettere in dubbio la risposta a una nostra domanda dataci da una persona, oppure quella di un assistente virtuale?» Massimo Chiariatti

    «gli algoritmi sono pur sempre progettati da esseri umani, sono opachi, ossia poco trasparenti, e perseguono non solo obiettivi di efficienza, ma ancor più di profitto. Quando imparano dall’esperienza, poi, tendono a replicare i pregiudizi umani» Mauro Barberis

    Nonostante si tenda a pensare all’Intelligenza Artificiale antropomorfizzandola, come se si trattasse di una macchina in grado di prendere “sue” decisioni ponderate, questa si “limita” a elaborare una mole di dati non governabile dagli esseri umani e a farlo con una velocità altrettanto al di sopra dalle loro possibilità. Per gestire le informazioni disponibili l’essere umano ha sempre teso a esternalizzare alcune funzioni del suo cervello estendendole nello spazio e nel tempo; sin dalla notte dei tempi l’umanità ha fatto ricorso a protesi tecnologiche per superare i suoi limiti fisici e cognitivi ma giunti alla digitalizzazione delle informazioni queste sono talmente aumentate che per la loro gestione si è resa necessaria una tecnologia sempre più sofisticata e performante soprattutto in termini di velocità di elaborazione.

    La sempre più frenetica società della prestazione tende a vedere nella lentezza umana un limite a cui necessariamente sopperire attraverso la tecnologia ma occorre chiedersi se davvero questa lentezza debba per forza essere intesa come un limite dell’umano rispetto alla macchina o non piuttosto come un valore che lo distingue irriducibilmente da essa. Se la lentezza umana viene vista come il tempo della coscienza, della possibilità di porsi delle domande, allora la velocità di elaborazione della macchina non è per forza di cose un valore sminuente l’umano.

    Anziché pensare all’intelligenza artificiale come a macchine “intelligenti” capaci di decidere al posto dell’essere umano, conviene prendere atto di come queste non siano altro che esecutrici di istruzioni e pregiudizi umani sotto forma di numeri e formule che lavorano sui dati loro forniti senza prendere in considerazione facoltà tipicamente umane come le emozioni, la responsabilità o l’immaginazione. Le macchine cosiddette intelligenti, infatti, si limitano ad “apprendere” in maniera decontestualizzata dai dati derivando da questi anche, come detto, i pregiudizi umani, dunque occorrerebbe una certa cautela nel permettere loro di prendere decisioni capaci di influire sulla nostra vita e quella del Pianeta.

    Una macchina che sta imparando dai dati, si usa dire che “apprende” ma in realtà sarebbe meglio essere consapevoli che nell’elaborare dati in fin dei conti in maniera statistica questa “prende decisioni” che però non sono affatto “intelligenti”, tanto che è sempre più difficile comprendere i motivi da cui derivano particolari decisioni. Occorre inoltre tenere presente che i dati non vengono lasciati alle macchine in sé ma ai soggetti che le possiedono e che hanno precisi interessi.

    È attorno a questioni di tale portata che riflette il volume di Massimo Chiariatti, Incoscienza artificiale. Come fanno le macchine a prevedere per noi (Luiss University Press, 2021), analizzando la natura dell’intelligenza artificiale e le implicazioni della sua interazione con l’essere umano.

    Lo studioso ricorda come il concetto stesso di Intelligenza Artificiale – introdotto attorno alla metà degli anni Cinquanta del secolo scorso – sia sempre stato assai dibattuto all’interno della comunità scientifica; se già di per sé è difficile definire in maniera univoca il concetto di “intelligenza”, non di meno anche l’aggettivo “artificiale” crea qualche problema implicando che «a monte rispetto al lavoro delle macchine ci sono sempre operazioni umane, dunque basate sulla biologia», pertanto, suggerisce Chiariatti, sarebbe il caso di «sostituire “intelligenza”, che ha un’accezione positiva, con “incoscienza”, poiché gli algoritmi, eseguendo regole che imparano autonomamente dai dati, producono risultati senza alcuna comprensione e coscienza di ciò che stanno facendo»1.

    Le macchine, anche le più sofisticate, possono certamente essere confrontate all’essere umano in termini di abilità, non certo di intelligenza se si ritiene che questa abbia a che fare con la comprensione e la coscienza di quanto si sta facendo. Ma, nota lo studioso, il sogno umano di «poter essere creatori si esplicita nel linguaggio quando si assegnano i nomi agli aggetti, come se, per esempio, il termine “apprendimento” (learning) in machine learning avesse lo stesso significato che ha per noi»2.

    Nel relazionarsi con le macchine l’essere umano non ha a disposizione un vocabolario neutrale con cui descrivere i fenomeni artificiali. Se per gli umani apprendere significa «modificare perennemente la mappa neuronale del cervello, e nel caso del linguaggio, aggiungere un significato simbolico»3, per la macchina “apprendere” significa far ricorso all’inferenza statistica, «ossia prendendo dalle coppie di dati per cui la relazione dell’input e dell’output è conosciuta (es. gli animali con le strisce sono zebre). Dando continuamente in pasto alle macchine queste coppie (input e output) possiamo fare in modo che fornendo solo l’input (strisce) sia possibile ottenere dalla macchina l’output probabilmente corretto (zebre)»4. Probabilmente, appunto, in quanto si tratta pur sempre di un risultato di ordine statistico derivato dalla regola appresa dalla macchina “allenandosi” sulle coppie di dati forniti.

    Mancando alla macchina la capacità astrattiva necessaria nella realizzazione di un processo analitico e inferenziale diventa difficile parlare davvero di apprendimento. Se il mero apprendimento dai dati si sostituisce a una programmazione esplicita, ossia al fornire all’elaboratore tutte le istruzioni relative al lavoro che deve compire, l’essere umano finisce per perdere il controllo sulle decisioni non essendo nemmeno in grado di comprendere come queste siano state prese dalla macchina: all’aumentare della complessità del mondo e al delegare alle macchine la costruzione di modelli corrisponde l’associare l’intelligenza alla mera ottimizzazione statistica che fa a meno del porsi domande.

    Quello che è certo ora è che la nostra cultura ha generato la natura delle macchine, che diventa la loro “conoscenza innata artificiale”. In altre parole, tutto quello che noi abbiamo espresso manualmente, verbalmente e in forma scritta, e che abbiamo trascritto in database, è entrato nella formazione delle macchine. […] Cosa ha ereditato la macchina? I dati, comprensivi dei nostri pregiudizi. E cosa sta imparando? A fare previsioni, al posto nostro5.

    Tutto ciò, sottolinea Chiariatti, deve indurre a riflettere circa le conseguenze in una società algoritmica sia a proposito delle modalità con cui le macchine, con la loro “Incoscienza Artificiale”, giungono alle loro conclusioni/decisioni che a come rapportarsi nei loro confronti.

    Si è soliti tipizzare diversi livelli di IA. Nella IA Debole, che è il livello attuale dell’evoluzione informatica, in cui l’elaboratore è dotato di competenze specifiche ma non comprende le operazioni che compie: si tratta di una IA orientata agli obiettivi, progettata per apprendere o imparare a completare compiti specifici come il riconoscimento facciale o vocale, guidare un veicolo o svolgere una ricerca in Internet. Si tratta di un sistema che può operare in maniera reattiva, senza avvalersi di un’esperienza precedente, o sfruttando una memoria di archiviazione dati, per quanto limitata, in modo da poter ricorrere a dati storici per prendere decisioni. Occorre fornirgli regole e dati in quantità per simulare processi ma non vi è alcuna riproduzione del pensiero umano. Nella IA Forte si sfruttano invece strumenti come l’apprendimento profondo (deep learning) al fine di affrontare i compiti del cosiddetto Sistema 2 (ragionamento, pianificazione, comprensione della causalità). L’obiettivo in questo caso è avvicinarsi all’intelligenza umana simulando il ragionamento causa-effetto anche se resta l’incapacità della macchina di porsi dubbi e domande circa il suo operare. L’IA Generale, invece, resta la visione per così dire fantascientifica che pretende di trasferire il contenuto del cervello umano nella macchina così che questa possa comportarsi al pari dell’umano.

    Sempre più industrie manifatturiere dipendono dalle piattaforme digitali affiancando all’inevitabile uso di Internet il ricorso all’intelligenza artificiale, tanto che colossi come Predix (General Electric) e MindSphere (Siemens) si contendono il monopolio delle piattaforme industriali indispensabili anche per lo sviluppo dell’IA.

    A tal proposito, nel volume di Mauro Barberis, Ecologia della rete. Come usare internet e vivere felici (Mimesis, 2021), viene evidenziato come la pandemia abbia accelerato tali processi soprattutto nell’ambito della logistica e nella diffusione dello smart working che ha assunto sempre più le sembianze del lavoro a cottimo deregolamentato a vantaggio di “padroni impersonali”.

    Secondo lo studioso il punto di passaggio fra Internet e IA potrebbe essere indicato nell’Internet delle cose (Internet of things, IoT) [su Carmilla 1 e 2], cioè nel momento in cui a comunicare fra loro in wireless sono oggetti identificati da protocolli Internet. Scrive a tal proposito Barberis:

    Dagli oggetti che funzionano in assenza dei padroni di casa o che si accendono da soli al loro arrivo (domotica), agli edifici e alle città intelligenti (smart), dai robot, dispositivi non necessariamente somiglianti agli umani, che svolgono gran parte delle operazioni di montaggio e assemblaggio nell’industria manifatturiera, sino alle auto senza guidatore sperimentate dalle industrie californiane, le applicazioni dell’internet delle cose sono ormai tante e così invasive da aver prodotto anche reazioni di rifiuto. In effetti, tutte queste applicazioni dell’IA presentano due somiglianze importanti e anche inquietanti. La prima è essere collegate tramite internet a un server centrale, al quale cedono dati da analizzare e poi da usare su utenti e consumatori. […] La seconda somiglianza è che il funzionamento dell’internet delle cose, e più in generale dell’IA ristretta, limitata ad applicazioni come domotica e robotica, è regolato da algoritmi: modelli matematici tramite i quali i progettisti possono non solo regolare il funzionamento di elettrodomestici o macchine industriali, ma permettere loro di imparare dell’esperienza, autonomizzandosi. Dall’internet delle cose, d’altra parte, l’uso degli algoritmi si è presto esteso ad altri settori dell’IA che coprono ormai interi settori della vita umana6.

    Se da un lato il ricorso ad algoritmi permette di potenziare la razionalità umana a livello decisionale grazie a modelli matematici apparentemente imparziali che dispongono di una maggiore conoscenza dei dati, dall’altro resta il fatto che gli algoritmi sono pur sempre progettati dagli esseri umani, sono poco trasparenti, e perseguono, replicando i pregiudizi umani, esclusivamente obiettivi di efficienza e, soprattutto, di profitto. Ragionare sull’IA, sostiene Barberis, porta a domandarsi

    dove stia il criterio distintivo fra l’uomo e la macchina, e se per caso questo non consista – invece che nella razionalità strumentale, replicabile da computer o algoritmi – nella sensibilità, prima animale e poi umana. Questa sensibilità non s’esaurisce negli organi di senso, riproducibili anch’essi da sensori artificiali. […] Semmai, consiste nell’empatia: la capacità di provare compassione. Oppure, sta nel dubbio che a volte ci sfiora già oggi, e che ingegneri robotici chiamano uncanny valley: quelli che ci circondano sono ancora umani, oppure loro repliche imperfette?7.

    Sempre a proposito di algoritmi, Chiariatti puntalizza come questi si limitino ad analizzare

    le relazioni nei dati – non i valori o il significato che rappresentano. Perciò l’algoritmo non “predice” e non “pensa”, ma si limita a costruire modelli seguendo le nostre orme. In altri termini, l’algoritmo è un meccanismo produttivo che usa i nostri dati come materia prima: scova le correlazioni ed estrae le regole. L’IA è quindi una creatrice di regole, seguendo le quali costruisce una sua rappresentazione del mondo. Ma lo fa in modo irresponsabile. Tutto il lavoro di apprendimento culmina in un risultato che ha del misterioso8.

    Se di per sé nell’atto di automatizzare non si può che vedere una forma di delega, nel contesto tecnologico contemporaneo ciò comporta problematiche quanto mai inquietanti alla luce del fatto che

    in rete si diffondono fatti non spiegabili scientificamente, rilanciati da macchine autonome (bot) basate su algoritmi che prevedono il comportamento umano. Definiamo fake news queste notizie prive di alcuna valenza scientifica, come facilmente possiamo verificare provando a risalire alle loro fonti. Ma come faremmo a riconoscere le fonti, se a generarle fossero macchine autonome? Questa è un’altra ragione per cui non ci possiamo fidare della conoscenza empirica su quello che accade alla macchina, non è corretto parlare di Intelligenza Artificiale, perché si tratta solo di un poderoso calcolo numerico9.

    A questo si aggiunga la faciloneria che domina su social e blog, da cui non di rado si alimenta la stessa “informazione orientata” ufficiale che, più che pianificata a tavolino da qualche diabolico stratega, pare frequentemente generarsi dalla superficialità imposta dai tempi ristretti dettati dalla società della prestazione in cui i momenti di necessaria riflessione risultano nella pratica banditi [su Carmilla].

    Mentre diviene impossibile comprendere come la macchina sia giunta a prendere decisioni, il business delle piattaforme online derivato proprio dal ricorso all’IA e da chi ha saputo utilizzarla in maniera profittevole, sembra avanzare in maniera inarrestabile. Sappiamo però, a volte anche per esperienza diretta, quanto le correlazioni ottenute dalle macchine possano essere del tutto casuali. Le macchine possono infatti individuare correlazioni tra fatti del tutto privi di cause comuni. La correlazione non implica causalità: una correlazione statistica, da sola, non dimostra un rapporto di causa-effetto; spiegare correlazioni richiede teorie e conoscenze approfondite del contesto sociale e culturale.

    Grazie alle deleghe sempre maggiori che vi si accordano, i sistemi di IA stanno assumendo, una loro autonomia. «Quando un oggetto fa esperienza del mondo in autonomia e interagisce tramite il linguaggio, il divario che lo separa da un soggetto sta per colmarsi. La soggettivazione algoritmica non prevede più la dicotomia “noi o loro”»10. Mentre l’essere umano ricorre a un oggetto per potenziare la creatività, ora sembra proprio che l’oggetto utilizzi la creatività umana espressa nei dati in forma scritta, orale e visiva per potenziare le sue previsioni. Ed è proprio grazie alla capacità predittivia che prosperano e dominano le grandi piattaforme della Rete analizzate da Luca Balestrieri [su Carmilla].

    Le piattaforme online si sono trasformate in soggetti che operano nella politica, dotati di micidiali armi economiche. Sono quasi diventati “Stati privati”, tanto grande è il loro potere. Ma come si sostentano? Con i dati, anzi, con i loro produttori. Cioè noi. Vediamo Stati che cooptano aziende per colpire altri Stati e aziende che si alleano tra loro controllando Stati interi. […] Sono entità che ricordano fortificazioni medievali e che definiamo più prosaicamente walled garden (“giardini recintati”), ossia piattaforme chiuse, ma la cui chiusura non ha lo scopo di ostacolare tanto l’accesso, quanto l’uscita […] All’interno di questi giardini non ci sono più cittadini eguali di fronte alla legge, ma sudditi che temono di essere esclusi dall’accesso alle informazioni, cosa che oggi equivale alla morte sociale. Questi muri non servono per difendersi, ma per evitare che i sudditi, i produttori di dati fuggano. I proprietari hanno già dalla loro parte milioni di persiane in giro per il mondo, evangelizzatori a titolo gratuito che professano la fede nei servizi free. Gli agognati virtual badge (come il badge blu per gli account di interesse pubblico su Twitter) sono i corrispettivi dei titoli nobiliari, perché danno sostanza a una gerarchizzazione in cui la posizione si basa sulla vittoria al gioco dei follower e sul rispetto delle regole del sistema11.

    Questi “nuovi Stati”, sottolinea Chiariatti, pur essendo spersonalizzati e smaterializzati non sono affatto depoliticizzati, in quanto dotati di un potere che esercitano in tutto il mondo: «il loro non è un business model, ma uno State model, di successo e, al momento, a prova di futuro»12. Tali piattaforme potrebbero presto tentare di farsi anche banche centrali emettendo le loro forme di denaro e nel caso le loro valute globali e scalabili si sganciassero dai sistemi monetari classici, le piattaforme potrebbero davvero dirsi Stati a tutti gli effetti. Non si tratta più di cogliere la minaccia esercitata dal potere economico nei confronti della democrazia: «ora il rischio maggiore è un regime di omologazione algoritmica globale in cui i cittadini, non potendo più prendere decisioni, avranno perso il controllo sui loro dati, la loro attenzione e il loro denaro»13. Si potrà parlare in tale caso di “algocrazia”; ossia di un sistema in cui a decidere saranno gli algoritmi.

    I sistemi di AI derivano buona parte dei dati di cui necessitano dagli smartphone e chi tra le grandi aziende saprà raccogliere più dati setacciando quelli di miglior qualità o produrre algoritmi più efficienti ed efficaci dominerà sulle altre e sugli individui. Si tratta di una guerra tra grandi corporation che coinvolge con le sue conseguenze gli esseri umani sin da prima di nascere, come ha spiegato fornendo esempi in quantià Veronica Barassi [su Carmilla 1 e 2].

    Invocare libertà impugnando un cellulare con la preoccupazione di postare al più presto sulle piattaforme social tutta la sete di libertà posseduta tradisce l’impossibilità di liberarsi da quei graziosi walled garden di cui si continua, nei fatti, ad essere prigionieri nel timore non solo di essere altrimenti esclusi dall’accesso alle informazioni, cosa che, come detto, equivale di questi tempi alla morte sociale, ma anche dall’occasione di trasmetterne a propria volta in un contesto però, come visto, profondamente viziato. Un cortocircuito da cui è indubbiamente difficile difendersi.


    Su Carmilla – Serie completa Culture e pratiche di sorveglianzaStampa, crea PDF o invia per email


    1. Massimo Chiariatti, Incoscienza artificiale. Come fanno le macchine a prevedere per noi, Luiss University Press, Roma, 2021, p. 19. 
    2. Ivi, p. 21. 
    3. Ivi, p. 21. 
    4. Ivi, p. 22. 
    5. Ivi, p. 24-25. 
    6. Mauro Barberis, Ecologia della rete. Come usare internet e vivere felici, Mimesis, Milano-Udine, 2021, pp. 41. 
    7. Ivi, pp. 51-52. 
    8. Massimo Chiariatti, Incoscienza artificiale, op. cit, p. 57. 
    9. Ivi, p. 62. 
    10. Ivi, p. 81. 
    11. Ivi, pp. 84-85. 
    12. Ivi, p. 86. 
    13. Ivi, p. 87. 

    Gioacchino Toni

    24/1/2022 https://www.carmillaonline.com

    Tags: Carmilla CULTURA Ecologia della rete Gioacchino Toni internet Mauro Barberis piattaforme digitali social media social web Socialità Sorveglianza Sorveglianza sociale
    • Condividi questo post:
    • Facebook
    • Twitter
    • Delicious
    • Digg
    Autore: franco.cilenti
    © Copyright 2022 — Lavoro & Salute – Blog. All Rights Reserved - Created by Pep Web - Privacy Policy
    blog-lavoroesalute.org è un blog collettivo di giornalisti e di autori e non una testata giornalistica. Il suo aggiornamento è infatti senza periodicità. blog-lavoroesalute.org non è quindi un prodotto editoriale ai sensi della legge n. 62 del 7.03.2001. I contenuti e le opinioni di blog-lavoroesalute.org devono per questo motivo essere considerati espressione esclusiva di chi ne è autore e, in ogni senso, sotto la sua individuale e personale responsabilità. I contributi multimediali utilizzati da blog-lavoroesalute.org- testi, foto, video, audio e grafiche - se non di produzione o di proprietà dei giornalisti e degli autori o concessi esplicitamente da autori terzi o dalle persone ritratte, sono di pubblico dominio perché, ove possibile, offerti dalla rete e trattati, in relazione alle loro opzioni di riproduzione o elaborazione, come contenuti di blog-lavoroesalute.org, nel rispetto dei 6 livelli di tutela dell’autorialità previsti dalla versione inglese e dalle bozze italiane del CCPL 4.0 per la gestione della pubblicazione e della elaborazione di Creative Commons. Se gli autori o i soggetti ritratti o riprodotti fossero contrari, nella forma utilizzata o in assoluto, alla pubblicazione su blog-lavoroesalute.org di contenuti che li riguardano, hanno facoltà di inviare una segnalazione a blog-lavoroesalute.org per la loro correzione, in ogni modo indicato, o per la loro rimozione, con il diritto di stabilire la rilevanza della eventuale rettifica, compreso anche quanto pubblicato sui social-network. Ogni contribuzione volontaria o entrata pubblicitaria ricevuta da blog-lavoroesalute.org è esclusivamente funzionale al suo mantenimento.
    Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più o negare il consenso a tutti o ad alcuni cookie, consulta la cookie policy. Cliccando sul tasto o proseguendo la navigazione in altra maniera, acconsenti all’uso dei cookie.
    Accetto
    Privacy & Cookies Policy

    Privacy Overview

    This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
    Necessary
    Sempre abilitato
    Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.
    Non-necessary
    Any cookies that may not be particularly necessary for the website to function and is used specifically to collect user personal data via analytics, ads, other embedded contents are termed as non-necessary cookies. It is mandatory to procure user consent prior to running these cookies on your website.
    ACCETTA E SALVA