In Evidenza
La Dichiarazione di Bletchley al termine dell’ AI Safety Summit per definire responsabilità e rischi dell’Intelligenza Artificiale

Al termine dell’ AI Safety Summit 2023, il vertice sulla Sicurezza dell’Intelligenza Artificiale che si è svolto a Bletchley Park, nel Regno Unito è stata presentata la “Dichiarazione di Bletchley” concordata da 28 stati tra cui Stati Uniti e Cina, volta a rafforzare gli sforzi globali per cooperare sulla sicurezza dell’intelligenza artificiale.
La Dichiarazione soddisfa gli obiettivi chiave del vertice stabilendo un accordo e una responsabilità condivisi sui rischi, sulle opportunità e su un processo avanzato per la collaborazione internazionale sulla sicurezza e la ricerca sull’intelligenza artificiale di frontiera, in particolare attraverso una maggiore collaborazione scientifica.
La dichiarazione incoraggia la trasparenza e la responsabilità da parte degli attori che sviluppano tecnologie di intelligenza artificiale di frontiera nei loro piani per misurare, monitorare e mitigare le capacità potenzialmente dannose.
La dichiarazione di Bletchley
L’intelligenza artificiale (AI) presenta enormi opportunità globali: ha il potenziale per trasformare e migliorare il benessere umano, la pace e la prosperità. Per realizzare ciò, affermiamo che, per il bene di tutti, l’intelligenza artificiale dovrebbe essere progettata, sviluppata, implementata e utilizzata in modo sicuro, in modo tale da essere incentrata sull’uomo, affidabile e responsabile. Accogliamo con favore gli sforzi compiuti finora dalla comunità internazionale per cooperare sull’intelligenza artificiale per promuovere la crescita economica inclusiva, lo sviluppo sostenibile e l’innovazione, per proteggere i diritti umani e le libertà fondamentali e per promuovere la fiducia del pubblico nei sistemi di intelligenza artificiale per realizzare appieno il loro potenziale.
I sistemi di intelligenza artificiale sono già utilizzati in molti ambiti della vita quotidiana, tra cui alloggio, occupazione, trasporti, istruzione, sanità, accessibilità e giustizia, e il loro utilizzo è destinato ad aumentare. Riconosciamo che questo è quindi un momento unico per agire e affermare la necessità di uno sviluppo sicuro dell’IA e di utilizzare le opportunità di trasformazione dell’IA per il bene e per tutti, in modo inclusivo nei nostri paesi e a livello globale. Ciò include servizi pubblici come sanità e istruzione, sicurezza alimentare, scienza, energia pulita, biodiversità e clima, per realizzare il godimento dei diritti umani e per rafforzare gli sforzi verso il raggiungimento degli obiettivi di sviluppo sostenibile delle Nazioni Unite.
Oltre a queste opportunità, l’intelligenza artificiale comporta anche rischi significativi, anche negli ambiti della vita quotidiana. A tal fine, accogliamo con favore gli sforzi internazionali volti a esaminare e affrontare il potenziale impatto dei sistemi di intelligenza artificiale nei forum esistenti e in altre iniziative pertinenti, e il riconoscimento che la tutela dei diritti umani, la trasparenza e la spiegabilità, l’equità, la responsabilità, la regolamentazione, la sicurezza, un’adeguata È necessario affrontare il problema del controllo umano, dell’etica, della mitigazione dei pregiudizi, della privacy e della protezione dei dati. Notiamo inoltre i potenziali rischi imprevisti derivanti dalla capacità di manipolare contenuti o generare contenuti ingannevoli. Tutte queste questioni sono di fondamentale importanza e affermiamo la necessità e l’urgenza di affrontarle.
Particolari rischi per la sicurezza emergono alla “frontiera” dell’IA, intesa come quei modelli di IA per scopi generali altamente capaci, compresi i modelli di base, che potrebbero svolgere un’ampia varietà di compiti, così come l’IA specifica e ristretta che potrebbe mostrare capacità che causano danno – che corrispondono o superano le capacità presenti nei modelli più avanzati di oggi. Rischi sostanziali possono derivare da un potenziale uso improprio intenzionale o da problemi di controllo non intenzionali relativi all’allineamento con l’intento umano. Questi problemi sono in parte dovuti al fatto che tali capacità non sono completamente comprese e sono quindi difficili da prevedere. Siamo particolarmente preoccupati da tali rischi in settori quali la sicurezza informatica e la biotecnologia, nonché laddove i sistemi di intelligenza artificiale di frontiera possono amplificare rischi come la disinformazione. Esiste il rischio di danni gravi, persino catastrofici, deliberati o involontari, derivanti dalle capacità più significative di questi modelli di intelligenza artificiale. Dato il tasso di cambiamento rapido e incerto dell’intelligenza artificiale, e nel contesto dell’accelerazione degli investimenti nella tecnologia, affermiamo che approfondire la nostra comprensione di questi rischi potenziali e delle azioni per affrontarli è particolarmente urgente.
Molti rischi derivanti dall’intelligenza artificiale sono intrinsecamente di natura internazionale e quindi possono essere affrontati meglio attraverso la cooperazione internazionale. Decidiamo di lavorare insieme in modo inclusivo per garantire un’IA incentrata sull’uomo, affidabile e responsabile che sia sicura e sostenga il bene di tutti attraverso i forum internazionali esistenti e altre iniziative pertinenti, per promuovere la cooperazione per affrontare l’ampia gamma di rischi posti da AI. In tal modo, riconosciamo che i paesi dovrebbero considerare l’importanza di una governance e di un approccio normativo proporzionato e pro-innovazione che massimizzi i benefici e tenga conto dei rischi associati all’intelligenza artificiale. Ciò potrebbe includere, ove opportuno, classificazioni e categorizzazioni dei rischi basate sulle circostanze nazionali e sui quadri giuridici applicabili. Notiamo inoltre l’importanza della cooperazione, ove opportuno, su approcci quali principi comuni e codici di condotta. Per quanto riguarda i rischi specifici riscontrati molto probabilmente in relazione all’IA di frontiera, decidiamo di intensificare e sostenere la nostra cooperazione e di ampliarla con altri paesi, per identificare, comprendere e, se del caso, agire, attraverso i forum internazionali esistenti e altre iniziative pertinenti, tra cui futuri vertici internazionali sulla sicurezza dell’intelligenza artificiale.
Tutti gli attori hanno un ruolo da svolgere nel garantire la sicurezza dell’IA: le nazioni, i forum internazionali e altre iniziative, le aziende, la società civile e il mondo accademico dovranno lavorare insieme. Rilevando l’importanza di un’intelligenza artificiale inclusiva e di colmare il divario digitale, riaffermiamo che la collaborazione internazionale dovrebbe cercare di coinvolgere un’ampia gamma di partner, a seconda dei casi, e accogliere con favore approcci e politiche orientati allo sviluppo che potrebbero aiutare i paesi in via di sviluppo a rafforzare lo sviluppo e l’effetto leva delle capacità dell’intelligenza artificiale. il ruolo abilitante dell’intelligenza artificiale per sostenere la crescita sostenibile e colmare il divario di sviluppo.
Affermiamo che, sebbene la sicurezza debba essere considerata in tutto il ciclo di vita dell’IA, gli attori che sviluppano capacità di IA di frontiera, in particolare quei sistemi di IA insolitamente potenti e potenzialmente dannosi, hanno una responsabilità particolarmente forte nel garantire la sicurezza di questi sistemi di IA, anche attraverso sistemi per i test di sicurezza, attraverso valutazioni e altre misure appropriate. Incoraggiamo tutti gli attori rilevanti a fornire trasparenza e responsabilità adeguate al contesto sui loro piani per misurare, monitorare e mitigare le capacità potenzialmente dannose e gli effetti associati che potrebbero emergere, in particolare per prevenire abusi e problemi di controllo e l’amplificazione di altri rischi.
Nel contesto della nostra cooperazione, e per informare l’azione a livello nazionale e internazionale, la nostra agenda per affrontare il rischio dell’IA di frontiera si concentrerà su:
identificare i rischi per la sicurezza dell’IA di interesse condiviso, costruire una comprensione scientifica condivisa e basata sull’evidenza di questi rischi e sostenere tale comprensione mentre le capacità continuano ad aumentare, nel contesto di un approccio globale più ampio alla comprensione dell’impatto dell’IA nelle nostre società.
costruendo rispettive politiche basate sul rischio in tutti i nostri paesi per garantire la sicurezza alla luce di tali rischi, collaborando in modo appropriato e riconoscendo che i nostri approcci possono differire in base alle circostanze nazionali e ai quadri giuridici applicabili. Ciò include, oltre a una maggiore trasparenza da parte degli attori privati che sviluppano capacità di intelligenza artificiale di frontiera, parametri di valutazione adeguati, strumenti per test di sicurezza e lo sviluppo di capacità pertinenti del settore pubblico e della ricerca scientifica.A sostegno di questo programma, decidiamo di sostenere una rete inclusiva a livello internazionale di ricerca scientifica sulla sicurezza dell’IA di frontiera che comprenda e integri la collaborazione multilaterale, plurilaterale e bilaterale esistente e nuova, anche attraverso forum internazionali esistenti e altre iniziative pertinenti, per facilitare la fornitura di la migliore scienza disponibile per l’elaborazione delle politiche e il bene pubblico.
Riconoscendo il potenziale positivo di trasformazione dell’intelligenza artificiale e come parte della garanzia di una più ampia cooperazione internazionale sull’intelligenza artificiale, decidiamo di sostenere un dialogo globale inclusivo che coinvolga i forum internazionali esistenti e altre iniziative pertinenti e contribuisca in modo aperto a discussioni internazionali più ampie, e continuare la ricerca sulla sicurezza dell’IA di frontiera per garantire che i vantaggi della tecnologia possano essere sfruttati in modo responsabile per il bene e per tutti. Non vediamo l’ora di incontrarci di nuovo nel 2024.
The Bletchley Declaration
Artificial Intelligence (AI) presents enormous global opportunities: it has the potential to transform and enhance human wellbeing, peace and prosperity. To realise this, we affirm that, for the good of all, AI should be designed, developed, deployed, and used, in a manner that is safe, in such a way as to be human-centric, trustworthy and responsible. We welcome the international community’s efforts so far to cooperate on AI to promote inclusive economic growth, sustainable development and innovation, to protect human rights and fundamental freedoms, and to foster public trust and confidence in AI systems to fully realise their potential.
AI systems are already deployed across many domains of daily life including housing, employment, transport, education, health, accessibility, and justice, and their use is likely to increase. We recognise that this is therefore a unique moment to act and affirm the need for the safe development of AI and for the transformative opportunities of AI to be used for good and for all, in an inclusive manner in our countries and globally. This includes for public services such as health and education, food security, in science, clean energy, biodiversity, and climate, to realise the enjoyment of human rights, and to strengthen efforts towards the achievement of the United Nations Sustainable Development Goals.
Alongside these opportunities, AI also poses significant risks, including in those domains of daily life. To that end, we welcome relevant international efforts to examine and address the potential impact of AI systems in existing fora and other relevant initiatives, and the recognition that the protection of human rights, transparency and explainability, fairness, accountability, regulation, safety, appropriate human oversight, ethics, bias mitigation, privacy and data protection needs to be addressed. We also note the potential for unforeseen risks stemming from the capability to manipulate content or generate deceptive content. All of these issues are critically important and we affirm the necessity and urgency of addressing them.
Particular safety risks arise at the ‘frontier’ of AI, understood as being those highly capable general-purpose AI models, including foundation models, that could perform a wide variety of tasks – as well as relevant specific narrow AI that could exhibit capabilities that cause harm – which match or exceed the capabilities present in today’s most advanced models. Substantial risks may arise from potential intentional misuse or unintended issues of control relating to alignment with human intent. These issues are in part because those capabilities are not fully understood and are therefore hard to predict. We are especially concerned by such risks in domains such as cybersecurity and biotechnology, as well as where frontier AI systems may amplify risks such as disinformation. There is potential for serious, even catastrophic, harm, either deliberate or unintentional, stemming from the most significant capabilities of these AI models. Given the rapid and uncertain rate of change of AI, and in the context of the acceleration of investment in technology, we affirm that deepening our understanding of these potential risks and of actions to address them is especially urgent.
Many risks arising from AI are inherently international in nature, and so are best addressed through international cooperation. We resolve to work together in an inclusive manner to ensure human-centric, trustworthy and responsible AI that is safe, and supports the good of all through existing international fora and other relevant initiatives, to promote cooperation to address the broad range of risks posed by AI. In doing so, we recognise that countries should consider the importance of a pro-innovation and proportionate governance and regulatory approach that maximises the benefits and takes into account the risks associated with AI. This could include making, where appropriate, classifications and categorisations of risk based on national circumstances and applicable legal frameworks. We also note the relevance of cooperation, where appropriate, on approaches such as common principles and codes of conduct. With regard to the specific risks most likely found in relation to frontier AI, we resolve to intensify and sustain our cooperation, and broaden it with further countries, to identify, understand and as appropriate act, through existing international fora and other relevant initiatives, including future international AI Safety Summits.
All actors have a role to play in ensuring the safety of AI: nations, international fora and other initiatives, companies, civil society and academia will need to work together. Noting the importance of inclusive AI and bridging the digital divide, we reaffirm that international collaboration should endeavour to engage and involve a broad range of partners as appropriate, and welcome development-orientated approaches and policies that could help developing countries strengthen AI capacity building and leverage the enabling role of AI to support sustainable growth and address the development gap.
We affirm that, whilst safety must be considered across the AI lifecycle, actors developing frontier AI capabilities, in particular those AI systems which are unusually powerful and potentially harmful, have a particularly strong responsibility for ensuring the safety of these AI systems, including through systems for safety testing, through evaluations, and by other appropriate measures. We encourage all relevant actors to provide context-appropriate transparency and accountability on their plans to measure, monitor and mitigate potentially harmful capabilities and the associated effects that may emerge, in particular to prevent misuse and issues of control, and the amplification of other risks.
In the context of our cooperation, and to inform action at the national and international levels, our agenda for addressing frontier AI risk will focus on:
identifying AI safety risks of shared concern, building a shared scientific and evidence-based understanding of these risks, and sustaining that understanding as capabilities continue to increase, in the context of a wider global approach to understanding the impact of AI in our societies.
building respective risk-based policies across our countries to ensure safety in light of such risks, collaborating as appropriate while recognising our approaches may differ based on national circumstances and applicable legal frameworks. This includes, alongside increased transparency by private actors developing frontier AI capabilities, appropriate evaluation metrics, tools for safety testing, and developing relevant public sector capability and scientific research.
In furtherance of this agenda, we resolve to support an internationally inclusive network of scientific research on frontier AI safety that encompasses and complements existing and new multilateral, plurilateral and bilateral collaboration, including through existing international fora and other relevant initiatives, to facilitate the provision of the best science available for policy making and the public good.In recognition of the transformative positive potential of AI, and as part of ensuring wider international cooperation on AI, we resolve to sustain an inclusive global dialogue that engages existing international fora and other relevant initiatives and contributes in an open manner to broader international discussions, and to continue research on frontier AI safety to ensure that the benefits of the technology can be harnessed responsibly for good and for all. We look forward to meeting again in 2024.
Bletchley Park è il sito storico considerato uno dei luoghi di nascita dell’informatica e diventato storico per il suo ruolo fondamentale nella decrittazione dei codici della Seconda Guerra Mondiale. Il sito è stato il luogo in cui furono distribuiti i primi computer semi programmabili al mondo, come il Colosso utilizzato per sconfiggere il Nazisti e dove ha lavorato Alan Turing considerato il padre dell’informatica e della crittografia.
Ricevi le nostre ultime notizie da Google News - SEGUICI
Massa Critica è una piattaforma di informazione, partecipazione e attivazione dei cittadini per favorire l'attivazione di quanti condividono aspirazioni nuove e innovative su sostenibilità , tecnologia , innovazione , startup , cibo , social innovation, salute.
.Vuoi saperne di più su Massa Critica ? Ecco la nostra presentazione.
Ti è piaciuto Massa Critica ? Bene! Iscriviti alla nostra newsletter. e al nostro canale Telegram.
Se ti piace il nostro lavoro vai alla nostra pagina su Facebook e clicca su "Like".
Se preferisci puoi anche seguirci via Twitter , via Instagram e via Youtube.
Per sostenerci abbiamo bisogno del vostro contributo, per questo vi chiediamo di supportarci concretamente attraverso Paypal o Satispay. Grazie per il vostro contributo e per la vostra fiducia!
Donazione con Paypal o carta di credito
Donazione con Satispay


Eventi
Macchine del Tempo: alle OGR Torino un viaggio alla scoperta dell’Universo dal 15 marzo al 2 giugno 2025

Da al 15 marzo al 2 giugno 2025, le OGR Torino si trasformano in un portale spazio-temporale grazie alla mostra Macchine del Tempo, Il viaggio nell’Universo inizia da te. Dopo il successo della prima edizione svoltasi presso il Palazzo Esposizioni Roma, la mostra offrirà al pubblico un viaggio a bordo della luce tra stelle, galassie, pianeti extrasolari, asteroidi e buchi neri.
Nel Binario 1 delle ex Officine per la riparazione dei treni, saranno presenti installazioni interattive, ambientazioni immersive, videogiochi in puro stile anni Ottanta e molto altro, per un viaggio a bordo delle futuristiche macchine del tempo progettate dall’Istituto Nazionale di Astrofisica (INAF).
Il percorso espositivo è pensato per un pubblico appassionato di scienza, alla scoperta delle frontiere dell’astrofisica moderna, e per chiunque desideri tuffarsi alla scoperta del remoto passato del nostro Universo per comprendere meglio il futuro che ci attende.
La mostra è ideata dall’Istituto Nazionale di Astrofisica e realizzata dalle OGR Torino e Pleiadi, con il contributo dell’INAF-Osservatorio Astrofisico di Torino, di Infini.to Planetario di Torino-Museo dell’Astronomia e dello Spazio “Attilio Ferrari” e MU-CH Museo della Chimica.
Ricevi le nostre ultime notizie da Google News - SEGUICI
Massa Critica è una piattaforma di informazione, partecipazione e attivazione dei cittadini per favorire l'attivazione di quanti condividono aspirazioni nuove e innovative su sostenibilità , tecnologia , innovazione , startup , cibo , social innovation, salute.
.Vuoi saperne di più su Massa Critica ? Ecco la nostra presentazione.
Ti è piaciuto Massa Critica ? Bene! Iscriviti alla nostra newsletter. e al nostro canale Telegram.
Se ti piace il nostro lavoro vai alla nostra pagina su Facebook e clicca su "Like".
Se preferisci puoi anche seguirci via Twitter , via Instagram e via Youtube.
Per sostenerci abbiamo bisogno del vostro contributo, per questo vi chiediamo di supportarci concretamente attraverso Paypal o Satispay. Grazie per il vostro contributo e per la vostra fiducia!
Donazione con Paypal o carta di credito
Donazione con Satispay

In Evidenza
La nuova edizione di Planet Foundamentals dedicata alla salute del Pianeta Terra, la call per accelerare startup ad impatto sociale

SocialFare ha lanciato la nuova edizione di Planet Foundamentals, la call per accelerare startup ad impatto sociale in grado di offrire soluzioni innovative in risposta alle sfide sociali più urgenti
Si tratta di un programma di accelerazione per startup ad impatto sociale giunto alla sua 17ª edizione.
Quest’anno il focus sarà su Planetary Health: Innovating for a Regenerative and Inclusive Future, un approccio sistemico per affrontare le grandi sfide globali e sviluppare soluzioni imprenditoriali capaci di coniugare innovazione, sostenibilità e inclusione.
Planet Foundamentals seleziona e accelera startup che propongono modelli innovativi per rispondere alle sfide emergenti nei seguenti ambiti:
● Clima, sostenibilità e gestione delle risorse naturali: soluzioni per la decarbonizzazione, l’uso efficiente di acqua ed energia, la tutela della biodiversità e la resilienza territoriale.
● Salute e nuovi modelli di prevenzione: innovazioni per la sanità digitale, la prevenzione, la longevità e il benessere mentale, con un focus sulle conseguenze ambientali e sociali sulla salute pubblica.
● Tecnologia, intelligenza artificiale e innovazione sostenibile: soluzioni digitali e AI per migliorare l’accesso ai servizi essenziali, garantire trasparenza e ridurre le disuguaglianze.
● Futuro del lavoro e nuovi modelli economici: strumenti per la formazione, l’inclusione lavorativa, il microcredito e lo sviluppo di economie resilienti e rigenerative.
● Educazione e cultura per la transizione: accesso equo all’istruzione, alfabetizzazione digitale e sensibilizzazione su sostenibilità, salute e innovazione tecnologica.
Un percorso di accelerazione su misura
Le startup selezionate accederanno a un percorso di accelerazione intensivo di 4 mesi, con un team di esperti dedicato che fornirà affrontando temi come business modeling, investment readiness e social impact assessment. Il programma si svolgerà presso Rinascimenti Sociali, a Torino, con un formato ibrido online/offline.
SocialFare Seed, il veicolo privato di seed investment di SocialFare, investirà fino a 150.000€ in equity per ciascuna startup selezionata, offrendo inoltre l’accesso a un network di 50+ impact investor e advisor.
Anche quest’anno, Planet Foundamentals è supportata da Invitalia, che offre orientamento e supporto sui finanziamenti per startup, e NHOA, attore globale nella transizione energetica e mobilità sostenibile.
Dal 2016 ad oggi, SocialFare ha accelerato oltre 120 startup ad impatto sociale, che hanno raccolto più di 50 milioni di euro di funding. Oltre l’84% delle startup investite da SocialFare Seed dal 2017 ha ottenuto un aumento di capitale successivo all’accelerazione.
Le tempistiche della call
● 4 marzo 2025 – Apertura candidature
● 4 maggio 2025 – Chiusura candidature
● 10 luglio 2025 – Selection Day
● 29 settembre 2025 – Inizio programma
● 30 gennaio 2026 – Social Impact Investor Day
Per candidarsi e scaricare i dettagli della call
Ricevi le nostre ultime notizie da Google News - SEGUICI
Massa Critica è una piattaforma di informazione, partecipazione e attivazione dei cittadini per favorire l'attivazione di quanti condividono aspirazioni nuove e innovative su sostenibilità , tecnologia , innovazione , startup , cibo , social innovation, salute.
.Vuoi saperne di più su Massa Critica ? Ecco la nostra presentazione.
Ti è piaciuto Massa Critica ? Bene! Iscriviti alla nostra newsletter. e al nostro canale Telegram.
Se ti piace il nostro lavoro vai alla nostra pagina su Facebook e clicca su "Like".
Se preferisci puoi anche seguirci via Twitter , via Instagram e via Youtube.
Per sostenerci abbiamo bisogno del vostro contributo, per questo vi chiediamo di supportarci concretamente attraverso Paypal o Satispay. Grazie per il vostro contributo e per la vostra fiducia!
Donazione con Paypal o carta di credito
Donazione con Satispay

Ambiente
Dossier Nevediversa 2025 di Legambiente: 265 gli impianti dismessiin Italia. Milano Cortina 2026 la sostenibilità è un obiettivo lontano

Il 2024 è stato l’anno più caldo mai registrato e gennaio 2025 ha segnato un nuovo record come il mese più caldo di sempre. Dalle Alpi agli Appennini nevica sempre meno. Il campanello d’allarme arriva dal numero degli impianti dismessi ad alta quota, ma anche dall’aumento dei bacini di innevamento artificiale per “fabbricare” la neve. Bisogna ripensare il turismo invernale in una chiave più sostenibile replicando le buone pratiche di turismo dolce.
Nella Penisola sono 265 le strutture legate agli sci non più funzionanti, un dato raddoppiato rispetto al 2020 quando ne erano stati censiti 132. Piemonte (76), Lombardia (33), Abruzzo (31) e Veneto (30) sono le regioni ad oggi con più strutture dismesse e che risentono, insieme al resto della Penisola, di una crisi climatica che anche in montagna lascia sempre più il segno, con nevicate in diminuzione e temperature in aumento, e un turismo invernale che diventa più costoso e in alcuni casi di lusso a discapito del portafoglio e dell’ambiente. Aumentano anche i bacini di innevamento artificiale: 165 quelli mappati ad oggi in Italia tramite le immagini satellitari per una superficie totale pari a 1.896.317 mq circa. Il Trentino-Alto Adige è la regione con più bacini censiti (60), seguita da Lombardia (23), e Piemonte (23). La Valle D’Aosta, invece, conta 14 bacini ma primeggia in termini di mq, ben 871.832.
Dalle Alpi agli Appennini nevica sempre meno. Il campanello d’allarme arriva dal numero degli impianti dismessi ad alta quota, ma anche dall’aumento dei bacini di innevamento artificiale per “fabbricare” la neve. Nella Penisola sono 265 le strutture legate agli sci non più funzionanti, un dato raddoppiato rispetto al 2020 quando ne erano stati censiti 132. Piemonte (76), Lombardia (33), Abruzzo (31) e Veneto (30) sono le regioni ad oggi con più strutture dismesse e che risentono, insieme al resto della Penisola, di una crisi climatica che anche in montagna lascia sempre più il segno, con nevicate in diminuzione e temperature in aumento, e un turismo invernale che diventa più costoso e in alcuni casi di lusso a discapito del portafoglio e dell’ambiente. Aumentano anche i bacini di innevamento artificiale: 165 quelli mappati ad oggi in Italia tramite le immagini satellitari per una superficie totale pari a 1.896.317 mq circa. Il Trentino-Alto Adige è la regione con più bacini censiti (60), seguita da Lombardia (23), e Piemonte (23). La Valle D’Aosta, invece, conta 14 bacini ma primeggia in termini di mq, ben 871.832.
Sono 112 le strutture temporaneamente chiuse, mentre sono 128 quelle un “po’ aperte, un po’ chiuse”. Salgono a 218 gli impianti sottoposti ad “accanimenti terapeutici”, distribuiti in 36 comprensori, e più che raddoppiati rispetto al 2020 quando ne erano stati censiti 103. Il numero più alto in Lombardia (59), Abruzzo (47), Emilia-Romagna (34). Resta invariato, invece, il numero degli impianti smantellati e riusati, rispetto all’anno precedente, attestandosi a 31; salgano a 80 gli edifici fatiscenti censiti e sono 15 le storie di brutti progetti segnalati nel report. Il dossier di Legambiente allarga poi lo sguardo anche sulle Alpi francesi e svizzere attraverso l’analisi dei dati di Mountain Wilderness Francia. Ad aprile 2024 sono stati censiti 101 impianti abbandonati in 56 siti distribuiti sulle catene montuose francesi, mentre in Svizzera risultano dismessi da anni oltre 55 skilift e funivie. Segno che il turismo invernale è in crisi anche oltralpe.
A pesare sulla fotografia scattata da Nevediversa 2025 è la crisi climatica che impone un ripensamento del rapporto con la montagna, in quota e a valle. Per Legambiente servono in primis più azioni di mitigazione e adattamento e più finanziamenti per il turismo dolce, accompagnati da una migliore gestione del territorio replicando le buone pratiche. Le previsioni per i prossimi anni indicano inverni significativamente più caldi rispetto a oggi, con un conseguente calo delle nevicate. I dati della Fondazione CIMA illustrano chiaramente il grave deficit nevoso registrato al 13 febbraio 2025 rispetto alle medie storiche. Sulle Alpi nella fascia tra i 1000 e i 2000 metri, la riduzione dell’innevamento è del 71% e addirittura del 94% sugli Appennini. A quote più elevate, tra i 2000 ei 3000 metri, il deficit si attesta al 43% sulle Alpi e al 78% sugli Appennini, evidenziando una situazione critica soprattutto lungo la dorsale appenninica. Dati che evidenziano le difficoltà a cui vanno incontro gli impianti sciistici che, a causa della crisi climatica, hanno prospettive di sviluppo sempre più incerte. Sul sito del Ministero del Turismo, dall’inizio del governo Meloni, sono stati pubblicati avvisi riguardanti l’assegnazione e l’erogazione di contributi pari a ben 430 milioni di euro, destinati a compensare le perdite subite dai comprensori sciistici. Inoltre, fino al 2028, il Ministero continuerà a finanziare a fondo perduto le imprese che gestiscono impianti di risalita a fune.
Negli ultimi anni, gli impianti di neve artificiale sono diventati una spesa costante e cruciale per la sopravvivenza dei comprensori e per garantire la settimana bianca. Tra gli esempi simbolo citati da Legambiente nel report ci sono Veneto, Piemonte e Friuli-Venezia Giulia. A metà febbraio si è registrata una spesa di 2 milioni di euro per l’innevamento artificiale nelle aree montane del Bellunese dall’inizio della stagione. Nel caso del Sestriere, in Piemonte, in quattro anni la cifra spesa ha superato i 10 milioni di €. Per innevare i 125 chilometri di piste del Friuli-Venezia Giulia, il costo stagionale si aggira intorno ai 5.300.000 euro. Oltre alla spesa in conto capitale. Dall’altro lato salgono in Italia i costi della settimana bianca. Una famiglia di tre persone, stando alle ultime stime, quest’anno spenderà in media 186 euro al giorno solo per accedere agli impianti di risalita e alle piste. In aumento, secondo Federturismo, anche il costo di hotel (+5,1%), delle scuole di sci (+6,9%), i servizi di ristorazione (+8,1%). In sintesi, per una settimana bianca, un adulto spende in media 1.453 euro, mentre un nucleo familiare composto da due genitori e un figlio affronta una spesa di circa 3.720 euro.
Il report dedica poi un focus aggiornato sulle Olimpiadi invernali Milano-Cortina 2026. A un anno dall’evento sportivo, dove la sostenibilità resta un obiettivo lontano, continuano le difficoltà legate a opere faraoniche, ritardi e costi alle stelle. Partite con un budget di 1,5 miliardi di euro, ad oggi i costi sono saliti a 5,7 miliardi di euro. Riguardo le opere previste molte rischiano di non essere completate tra queste anche le varianti della Val Boite. Continua il monitoraggio sulle opere da parte delle associazioni della Rete Open Olympics. Intanto resta alta l’incognita neve 2026.
Da Cortina alle Cime di Lavaredo, per arrivare a Roccaraso, l’overtourism colpisce Alpi e Appennini a cui il report dedica un approfondimento corredato da interviste ad esperti. Le mete alpine, in particolare, stanno vivendo anche l’espansione del turismo del lusso come sta accadendo a Cortina. Sempre più riservata a un’elitè di ricchi, Cortina sta diventando una “scuola di gentrificazione, dove ci si trova estranei nella propria terra”. Come spiega il professore Alberto Lanzavecchia dell’Università di Padova, “le proprietà non vengono acquistate dagli italiani, ci sono investitori stranieri, oggi solo un terzo degli alberghi è gestito da famiglie di residenti. L’offerta turistica diventa più costosa ed espelle le famiglie italiane, che non possono godere più di quella valle”.
Ricevi le nostre ultime notizie da Google News - SEGUICI
Massa Critica è una piattaforma di informazione, partecipazione e attivazione dei cittadini per favorire l'attivazione di quanti condividono aspirazioni nuove e innovative su sostenibilità , tecnologia , innovazione , startup , cibo , social innovation, salute.
.Vuoi saperne di più su Massa Critica ? Ecco la nostra presentazione.
Ti è piaciuto Massa Critica ? Bene! Iscriviti alla nostra newsletter. e al nostro canale Telegram.
Se ti piace il nostro lavoro vai alla nostra pagina su Facebook e clicca su "Like".
Se preferisci puoi anche seguirci via Twitter , via Instagram e via Youtube.
Per sostenerci abbiamo bisogno del vostro contributo, per questo vi chiediamo di supportarci concretamente attraverso Paypal o Satispay. Grazie per il vostro contributo e per la vostra fiducia!
Donazione con Paypal o carta di credito
Donazione con Satispay
