Cortina 2026: la tecnologia che poteva esserci
La morte di un lavoratore nei cantieri legati a Cortina 2026 non è solo una notizia. È una frattura silenziosa dentro un'epoca che si racconta come avanzata, intelligente, connessa.
La morte di un lavoratore nei cantieri legati a Cortina 2026 non è solo una notizia. È una frattura silenziosa dentro un'epoca che si racconta come avanzata, intelligente, connessa. Non perché la tecnologia non esista. Ma perché, ancora una volta, non è stata messa dove serviva. Psiconnessioni nasce proprio in questo punto di attrito: quando la tecnologia smette di essere promessa e diventa scelta mancata.
Viviamo in un mondo che sa tutto di noi. Sa dove siamo, quanto dormiamo, come ci muoviamo, cosa ci affatica, cosa ci stressa. Lo sa quando navighiamo, quando compriamo, quando rallentiamo. Eppure, nei luoghi di lavoro, soprattutto quelli più duri, più esposti, più fragili, questa intelligenza spesso scompare. Come se il corpo che lavora fosse ancora una variabile analogica, destinata a reggere da sola.
Ed è qui che qualcosa non torna.
Oggi esistono dispositivi che, indossati, riescono a percepire prima dell'essere umano segnali sottili, come un sovraccarico, una postura che cede, un affaticamento che non si dichiara. Sono strumenti silenziosi, discreti, nati non per giudicare ma per interrompere in tempo. Chi li sviluppa lo fa partendo da una domanda semplice: quanto prima possiamo accorgerci che qualcosa sta andando storto?
Chi è curioso può inciampare, ad esempio, in realtà come strongarmtech.com o reactec.com, ma il punto non è il nome. È il principio.
Lo stesso vale per l'ambiente. In montagna il rischio non è solo umano: è il freddo che irrigidisce, il ghiaccio che cambia consistenza, una vibrazione impercettibile che precede il cedimento. Esistono sistemi che restano lì, al posto nostro, a sentire ciò che noi non possiamo sentire sempre. Qualcuno li usa già, qualcuno li considera "extra". Qualcun altro non li ha mai voluti davvero invece, e ci chiediamo perché non siano diventati la norma.
C'è poi un livello ancora più scomodo, quello della previsione. Algoritmi che non si limitano a registrare ciò che accade, ma che imparano dai dati, riconoscono ricorrenze, anticipano scenari di rischio. Non reagiscono all'incidente, lo leggono in filigrana quando ancora non è successo. Qualcuno parla di intelligenza artificiale, ma qui non c'è nulla di astratto, c'è solo la possibilità di fermarsi prima. Basta cercare intenseye.com per capire che non stiamo parlando di fantascienza.
E poi c'è la solitudine. Il lavoratore isolato, lontano, invisibile nel momento in cui accade qualcosa. Anche questo, oggi, non dovrebbe più essere possibile. Esistono tecnologie che rilevano l'assenza di movimento, un'anomalia, un silenzio improvviso. Sistemi pensati per dire una cosa sola, lanciare un messaggio che può salvare una vita. Blacklinesafety.com o loneworker.com sono solo degli aiuti, non soluzioni miracolose. La soluzione vera è decidere che nessuno debba più morire così.
A questo punto emerge l'equivoco più grande, l'idea che la tecnologia disumanizzi, e che tutto diventi un dato da tracciare con minor privacy per tutti, ma in realtà, la tecnologia disumanizza solo quando viene usata per controllare, e non per proteggere. Un sensore non giudica, non chiede di stringere i tempi, non misura la produttività. Avverte. E in certi contesti, avvertire è già un atto di cura.
Il nodo, allora, non è tecnico, è profondamente cognitivo. Quando una tecnologia che potrebbe salvare una vita non viene adottata, non siamo di fronte a una mancanza, siamo di fronte a una decisione, ad una gerarchia invisibile di priorità, in cui il rischio diventa accettabile e la morte una variabile statistica. La tecnologia, in questi casi, smette di essere strumento e diventa specchio etico.
Abbiamo scritto altre volte che le tragedie contemporanee vengono raccontate dagli schermi. Questa, forse, poteva essere evitata proprio grazie agli schermi. Il problema non è la tecnologia, ma dove scegliamo di guardare. Finché useremo l'innovazione per raccontare il dopo e non per proteggere il prima, continueremo a chiamare "incidenti" ciò che sono state scelte sistemiche.
Psiconnessioni resta qui, nel punto in cui il progresso smette di brillare e comincia a pesare sulle coscienze.
In controluce...
La tecnologia che poteva esserci non è fantascienza. Esiste già. È disponibile, testata, funzionante. Ma non è stata scelta. E questa non-scelta ci dice qualcosa di profondo sulle nostre priorità collettive. Ci dice che l'innovazione viene celebrata quando genera profitto, visibilità, intrattenimento. Ma quando si tratta di proteggere chi lavora nei luoghi più duri, più freddi, più isolati, improvvisamente diventa "troppo costosa", "non necessaria", "eccessiva". La domanda che Psiconnessioni pone non è tecnica, è etica: in che tipo di società vogliamo vivere? In una che usa la tecnologia per raccontare le tragedie dopo che sono accadute, o in una che la usa per impedire che accadano? Ogni sensore non installato, ogni sistema di allerta non adottato, ogni algoritmo predittivo ignorato è una scelta. E ogni scelta ha un peso. Cortina 2026 poteva essere un simbolo di progresso reale, quello che protegge prima di celebrare. Invece è diventata l'ennesima dimostrazione che il futuro che raccontiamo non è quello che costruiamo. Non per tutti, almeno.
Nota: Questo articolo ha finalità esclusivamente divulgative ed educative.
Ti è piaciuto questo articolo?
Iscriviti alla newsletter per ricevere approfondimenti, riflessioni e aggiornamenti sui temi della psicologia digitale.
Rispettiamo la tua privacy. Nessuno spam, solo contenuti di valore.
Uno spazio di confronto sui comportamenti digitali
Hai una domanda? Parliamone