Seguici su

In Evidenza

La Dichiarazione di Bletchley al termine dell’ AI Safety Summit per definire responsabilità e rischi dell’Intelligenza Artificiale

Al termine dell’ AI Safety Summit 2023, il vertice sulla Sicurezza dell’Intelligenza Artificiale che si è svolto a Bletchley Park, nel Regno Unito è stata presentata la “Dichiarazione di Bletchley” concordata da 28 stati tra cui Stati Uniti e Cina, volta a rafforzare gli sforzi globali per cooperare sulla sicurezza dell’intelligenza artificiale.

La Dichiarazione soddisfa gli obiettivi chiave del vertice stabilendo un accordo e una responsabilità condivisi sui rischi, sulle opportunità e su un processo avanzato per la collaborazione internazionale sulla sicurezza e la ricerca sull’intelligenza artificiale di frontiera, in particolare attraverso una maggiore collaborazione scientifica.

La dichiarazione incoraggia la trasparenza e la responsabilità da parte degli attori che sviluppano tecnologie di intelligenza artificiale di frontiera nei loro piani per misurare, monitorare e mitigare le capacità potenzialmente dannose.

La dichiarazione di Bletchley

L’intelligenza artificiale (AI) presenta enormi opportunità globali: ha il potenziale per trasformare e migliorare il benessere umano, la pace e la prosperità. Per realizzare ciò, affermiamo che, per il bene di tutti, l’intelligenza artificiale dovrebbe essere progettata, sviluppata, implementata e utilizzata in modo sicuro, in modo tale da essere incentrata sull’uomo, affidabile e responsabile. Accogliamo con favore gli sforzi compiuti finora dalla comunità internazionale per cooperare sull’intelligenza artificiale per promuovere la crescita economica inclusiva, lo sviluppo sostenibile e l’innovazione, per proteggere i diritti umani e le libertà fondamentali e per promuovere la fiducia del pubblico nei sistemi di intelligenza artificiale per realizzare appieno il loro potenziale.

I sistemi di intelligenza artificiale sono già utilizzati in molti ambiti della vita quotidiana, tra cui alloggio, occupazione, trasporti, istruzione, sanità, accessibilità e giustizia, e il loro utilizzo è destinato ad aumentare. Riconosciamo che questo è quindi un momento unico per agire e affermare la necessità di uno sviluppo sicuro dell’IA e di utilizzare le opportunità di trasformazione dell’IA per il bene e per tutti, in modo inclusivo nei nostri paesi e a livello globale. Ciò include servizi pubblici come sanità e istruzione, sicurezza alimentare, scienza, energia pulita, biodiversità e clima, per realizzare il godimento dei diritti umani e per rafforzare gli sforzi verso il raggiungimento degli obiettivi di sviluppo sostenibile delle Nazioni Unite.

Oltre a queste opportunità, l’intelligenza artificiale comporta anche rischi significativi, anche negli ambiti della vita quotidiana. A tal fine, accogliamo con favore gli sforzi internazionali volti a esaminare e affrontare il potenziale impatto dei sistemi di intelligenza artificiale nei forum esistenti e in altre iniziative pertinenti, e il riconoscimento che la tutela dei diritti umani, la trasparenza e la spiegabilità, l’equità, la responsabilità, la regolamentazione, la sicurezza, un’adeguata È necessario affrontare il problema del controllo umano, dell’etica, della mitigazione dei pregiudizi, della privacy e della protezione dei dati. Notiamo inoltre i potenziali rischi imprevisti derivanti dalla capacità di manipolare contenuti o generare contenuti ingannevoli. Tutte queste questioni sono di fondamentale importanza e affermiamo la necessità e l’urgenza di affrontarle.

Particolari rischi per la sicurezza emergono alla “frontiera” dell’IA, intesa come quei modelli di IA per scopi generali altamente capaci, compresi i modelli di base, che potrebbero svolgere un’ampia varietà di compiti, così come l’IA specifica e ristretta che potrebbe mostrare capacità che causano danno – che corrispondono o superano le capacità presenti nei modelli più avanzati di oggi. Rischi sostanziali possono derivare da un potenziale uso improprio intenzionale o da problemi di controllo non intenzionali relativi all’allineamento con l’intento umano. Questi problemi sono in parte dovuti al fatto che tali capacità non sono completamente comprese e sono quindi difficili da prevedere. Siamo particolarmente preoccupati da tali rischi in settori quali la sicurezza informatica e la biotecnologia, nonché laddove i sistemi di intelligenza artificiale di frontiera possono amplificare rischi come la disinformazione. Esiste il rischio di danni gravi, persino catastrofici, deliberati o involontari, derivanti dalle capacità più significative di questi modelli di intelligenza artificiale. Dato il tasso di cambiamento rapido e incerto dell’intelligenza artificiale, e nel contesto dell’accelerazione degli investimenti nella tecnologia, affermiamo che approfondire la nostra comprensione di questi rischi potenziali e delle azioni per affrontarli è particolarmente urgente.

Molti rischi derivanti dall’intelligenza artificiale sono intrinsecamente di natura internazionale e quindi possono essere affrontati meglio attraverso la cooperazione internazionale. Decidiamo di lavorare insieme in modo inclusivo per garantire un’IA incentrata sull’uomo, affidabile e responsabile che sia sicura e sostenga il bene di tutti attraverso i forum internazionali esistenti e altre iniziative pertinenti, per promuovere la cooperazione per affrontare l’ampia gamma di rischi posti da AI. In tal modo, riconosciamo che i paesi dovrebbero considerare l’importanza di una governance e di un approccio normativo proporzionato e pro-innovazione che massimizzi i benefici e tenga conto dei rischi associati all’intelligenza artificiale. Ciò potrebbe includere, ove opportuno, classificazioni e categorizzazioni dei rischi basate sulle circostanze nazionali e sui quadri giuridici applicabili. Notiamo inoltre l’importanza della cooperazione, ove opportuno, su approcci quali principi comuni e codici di condotta. Per quanto riguarda i rischi specifici riscontrati molto probabilmente in relazione all’IA di frontiera, decidiamo di intensificare e sostenere la nostra cooperazione e di ampliarla con altri paesi, per identificare, comprendere e, se del caso, agire, attraverso i forum internazionali esistenti e altre iniziative pertinenti, tra cui futuri vertici internazionali sulla sicurezza dell’intelligenza artificiale.

Tutti gli attori hanno un ruolo da svolgere nel garantire la sicurezza dell’IA: le nazioni, i forum internazionali e altre iniziative, le aziende, la società civile e il mondo accademico dovranno lavorare insieme. Rilevando l’importanza di un’intelligenza artificiale inclusiva e di colmare il divario digitale, riaffermiamo che la collaborazione internazionale dovrebbe cercare di coinvolgere un’ampia gamma di partner, a seconda dei casi, e accogliere con favore approcci e politiche orientati allo sviluppo che potrebbero aiutare i paesi in via di sviluppo a rafforzare lo sviluppo e l’effetto leva delle capacità dell’intelligenza artificiale. il ruolo abilitante dell’intelligenza artificiale per sostenere la crescita sostenibile e colmare il divario di sviluppo.

Affermiamo che, sebbene la sicurezza debba essere considerata in tutto il ciclo di vita dell’IA, gli attori che sviluppano capacità di IA di frontiera, in particolare quei sistemi di IA insolitamente potenti e potenzialmente dannosi, hanno una responsabilità particolarmente forte nel garantire la sicurezza di questi sistemi di IA, anche attraverso sistemi per i test di sicurezza, attraverso valutazioni e altre misure appropriate. Incoraggiamo tutti gli attori rilevanti a fornire trasparenza e responsabilità adeguate al contesto sui loro piani per misurare, monitorare e mitigare le capacità potenzialmente dannose e gli effetti associati che potrebbero emergere, in particolare per prevenire abusi e problemi di controllo e l’amplificazione di altri rischi.

Nel contesto della nostra cooperazione, e per informare l’azione a livello nazionale e internazionale, la nostra agenda per affrontare il rischio dell’IA di frontiera si concentrerà su:

identificare i rischi per la sicurezza dell’IA di interesse condiviso, costruire una comprensione scientifica condivisa e basata sull’evidenza di questi rischi e sostenere tale comprensione mentre le capacità continuano ad aumentare, nel contesto di un approccio globale più ampio alla comprensione dell’impatto dell’IA nelle nostre società.
costruendo rispettive politiche basate sul rischio in tutti i nostri paesi per garantire la sicurezza alla luce di tali rischi, collaborando in modo appropriato e riconoscendo che i nostri approcci possono differire in base alle circostanze nazionali e ai quadri giuridici applicabili. Ciò include, oltre a una maggiore trasparenza da parte degli attori privati ​​che sviluppano capacità di intelligenza artificiale di frontiera, parametri di valutazione adeguati, strumenti per test di sicurezza e lo sviluppo di capacità pertinenti del settore pubblico e della ricerca scientifica.

A sostegno di questo programma, decidiamo di sostenere una rete inclusiva a livello internazionale di ricerca scientifica sulla sicurezza dell’IA di frontiera che comprenda e integri la collaborazione multilaterale, plurilaterale e bilaterale esistente e nuova, anche attraverso forum internazionali esistenti e altre iniziative pertinenti, per facilitare la fornitura di la migliore scienza disponibile per l’elaborazione delle politiche e il bene pubblico.

Riconoscendo il potenziale positivo di trasformazione dell’intelligenza artificiale e come parte della garanzia di una più ampia cooperazione internazionale sull’intelligenza artificiale, decidiamo di sostenere un dialogo globale inclusivo che coinvolga i forum internazionali esistenti e altre iniziative pertinenti e contribuisca in modo aperto a discussioni internazionali più ampie, e continuare la ricerca sulla sicurezza dell’IA di frontiera per garantire che i vantaggi della tecnologia possano essere sfruttati in modo responsabile per il bene e per tutti. Non vediamo l’ora di incontrarci di nuovo nel 2024.

The Bletchley Declaration

Artificial Intelligence (AI) presents enormous global opportunities: it has the potential to transform and enhance human wellbeing, peace and prosperity. To realise this, we affirm that, for the good of all, AI should be designed, developed, deployed, and used, in a manner that is safe, in such a way as to be human-centric, trustworthy and responsible. We welcome the international community’s efforts so far to cooperate on AI to promote inclusive economic growth, sustainable development and innovation, to protect human rights and fundamental freedoms, and to foster public trust and confidence in AI systems to fully realise their potential.

AI systems are already deployed across many domains of daily life including housing, employment, transport, education, health, accessibility, and justice, and their use is likely to increase. We recognise that this is therefore a unique moment to act and affirm the need for the safe development of AI and for the transformative opportunities of AI to be used for good and for all, in an inclusive manner in our countries and globally. This includes for public services such as health and education, food security, in science, clean energy, biodiversity, and climate, to realise the enjoyment of human rights, and to strengthen efforts towards the achievement of the United Nations Sustainable Development Goals.

Alongside these opportunities, AI also poses significant risks, including in those domains of daily life. To that end, we welcome relevant international efforts to examine and address the potential impact of AI systems in existing fora and other relevant initiatives, and the recognition that the protection of human rights, transparency and explainability, fairness, accountability, regulation, safety, appropriate human oversight, ethics, bias mitigation, privacy and data protection needs to be addressed. We also note the potential for unforeseen risks stemming from the capability to manipulate content or generate deceptive content. All of these issues are critically important and we affirm the necessity and urgency of addressing them.

Particular safety risks arise at the ‘frontier’ of AI, understood as being those highly capable general-purpose AI models, including foundation models, that could perform a wide variety of tasks – as well as relevant specific narrow AI that could exhibit capabilities that cause harm – which match or exceed the capabilities present in today’s most advanced models. Substantial risks may arise from potential intentional misuse or unintended issues of control relating to alignment with human intent. These issues are in part because those capabilities are not fully understood and are therefore hard to predict. We are especially concerned by such risks in domains such as cybersecurity and biotechnology, as well as where frontier AI systems may amplify risks such as disinformation. There is potential for serious, even catastrophic, harm, either deliberate or unintentional, stemming from the most significant capabilities of these AI models. Given the rapid and uncertain rate of change of AI, and in the context of the acceleration of investment in technology, we affirm that deepening our understanding of these potential risks and of actions to address them is especially urgent.

Many risks arising from AI are inherently international in nature, and so are best addressed through international cooperation. We resolve to work together in an inclusive manner to ensure human-centric, trustworthy and responsible AI that is safe, and supports the good of all through existing international fora and other relevant initiatives, to promote cooperation to address the broad range of risks posed by AI. In doing so, we recognise that countries should consider the importance of a pro-innovation and proportionate governance and regulatory approach that maximises the benefits and takes into account the risks associated with AI. This could include making, where appropriate, classifications and categorisations of risk based on national circumstances and applicable legal frameworks. We also note the relevance of cooperation, where appropriate, on approaches such as common principles and codes of conduct. With regard to the specific risks most likely found in relation to frontier AI, we resolve to intensify and sustain our cooperation, and broaden it with further countries, to identify, understand and as appropriate act, through existing international fora and other relevant initiatives, including future international AI Safety Summits.

All actors have a role to play in ensuring the safety of AI: nations, international fora and other initiatives, companies, civil society and academia will need to work together. Noting the importance of inclusive AI and bridging the digital divide, we reaffirm that international collaboration should endeavour to engage and involve a broad range of partners as appropriate, and welcome development-orientated approaches and policies that could help developing countries strengthen AI capacity building and leverage the enabling role of AI to support sustainable growth and address the development gap.

We affirm that, whilst safety must be considered across the AI lifecycle, actors developing frontier AI capabilities, in particular those AI systems which are unusually powerful and potentially harmful, have a particularly strong responsibility for ensuring the safety of these AI systems, including through systems for safety testing, through evaluations, and by other appropriate measures. We encourage all relevant actors to provide context-appropriate transparency and accountability on their plans to measure, monitor and mitigate potentially harmful capabilities and the associated effects that may emerge, in particular to prevent misuse and issues of control, and the amplification of other risks.

In the context of our cooperation, and to inform action at the national and international levels, our agenda for addressing frontier AI risk will focus on:

identifying AI safety risks of shared concern, building a shared scientific and evidence-based understanding of these risks, and sustaining that understanding as capabilities continue to increase, in the context of a wider global approach to understanding the impact of AI in our societies.
building respective risk-based policies across our countries to ensure safety in light of such risks, collaborating as appropriate while recognising our approaches may differ based on national circumstances and applicable legal frameworks. This includes, alongside increased transparency by private actors developing frontier AI capabilities, appropriate evaluation metrics, tools for safety testing, and developing relevant public sector capability and scientific research.
In furtherance of this agenda, we resolve to support an internationally inclusive network of scientific research on frontier AI safety that encompasses and complements existing and new multilateral, plurilateral and bilateral collaboration, including through existing international fora and other relevant initiatives, to facilitate the provision of the best science available for policy making and the public good.

In recognition of the transformative positive potential of AI, and as part of ensuring wider international cooperation on AI, we resolve to sustain an inclusive global dialogue that engages existing international fora and other relevant initiatives and contributes in an open manner to broader international discussions, and to continue research on frontier AI safety to ensure that the benefits of the technology can be harnessed responsibly for good and for all. We look forward to meeting again in 2024.

Bletchley Park è il sito storico considerato uno dei luoghi di nascita dell’informatica e diventato storico per il suo ruolo fondamentale nella decrittazione dei codici della Seconda Guerra Mondiale. Il sito è stato il luogo in cui furono distribuiti i primi computer semi programmabili al mondo, come il Colosso utilizzato per sconfiggere il Nazisti e dove ha lavorato Alan Turing considerato il padre dell’informatica e della crittografia.


Google NewsRicevi le nostre ultime notizie da Google News - SEGUICI


Massa Critica è una piattaforma di informazione, partecipazione e attivazione dei cittadini per favorire l'attivazione di quanti condividono aspirazioni nuove e innovative su sostenibilità , tecnologia , innovazione , startup , cibo , social innovation, salute.
.Vuoi saperne di più su Massa Critica ? Ecco la nostra presentazione.
Ti  è piaciuto Massa Critica ? Bene! Iscriviti alla nostra newsletter. e al nostro canale Telegram.
Se ti piace il nostro lavoro vai alla nostra pagina su Facebook e clicca su "Like".
Se preferisci puoi anche seguirci via Twitter , via Instagram e via Youtube.


Per sostenerci abbiamo bisogno del vostro contributo, per questo vi chiediamo di supportarci concretamente attraverso Paypal o Satispay. Grazie per il vostro contributo e per la vostra fiducia!


Donazione con Paypal o carta di credito



Donazione con Satispay


Economia circolare

VIII EcoForum per l’Economia Circolare – Per la prima volta calano i Comuni Rifiuti Free in Piemonte

Si è svolta giovedì 12 dicembre 2024, l’ottava edizione di Ecoforum per l’Economia Circolare di Legambiente Piemonte e Valle d’Aosta. “Ci sono elementi di preoccupazione circa l’economia circolare piemontese – ha dichiarato Alice De Marco, presidente di Legambiente Piemonte e Valle d’Aosta – In Regione continua a crescere la produzione di rifiuti: nel 2023 si sono prodotte 31.600 tonnellate di rifiuti in più rispetto al 2022, l’equivalente della produzione di un Comune da 50.000 abitanti, a fronte di un calo demografico che continua inesorabilmente e ininterrottamente dal 2013. La percentuale di raccolta differenziata media è sostanzialmente stabile: dal 67,07 del 2022 si è arrivati al 67,9 del 2023, con una crescita minima, pressoché insignificante. Questo nell’anno in cui il nuovo PRUBAI ha fissato l’obiettivo al 2035 del 82% di RD. Quest’anno, per la prima volta, assistiamo ad un calo del numero di Comuni Rifiuti Free. Dai 158 del 2022, scendiamo ai 150 del 2023. Se la dimensione del calo del numero dei Comuni Rifiuti Free non è troppo preoccupante, lascia perplessi invece un’inversione di tendenza alla quale tutte le istituzioni Piemontesi, a partire da Regione Piemonte e Consorzi, devono porre la massima attenzione, pianificando interventi in grado di permettere a tutti i Comuni regionali di raggiungere gli ambiziosi obiettivi previsti nel PRUBAI”.
La due giorni dedicata all’economia circolare piemontese si è aperta nella giornata di mercoledì 11 dicembre con un ragionamento su come sia possibile misurare la circolarità su cui si sono confrontati Claudio Perissinotti, technical Project Manager di Uni, Fabrizio Vigni, coordinatore organizzativo di Circular Economy Network, ed Andrea Minutolo, responsabile scientifico di Legambiente.
Il tema della raccolta differenziata nei Comuni Turistici e le loro difficoltà a raggiungere performances di rilievo a causa dei forti flussi turistici che impattano notevolmente sulla produzione di rifiuti è stato il secondo focus di giornata. Si sono confrontati Paolo Penna, Regione Piemonte, che ha annunciato una nuova modalità di calcolo degli abitanti equivalenti; Alessio Ciacci, Presidente Acsel, e Stefano Ditella, Assessore di Avigliana, che hanno raccontato i pripri territori, le difficoltà e le buone pratiche; Monica Pasquarelli, CDA di Coripet, che ha esposto le esperienze del consorzio dedicato alla raccolta delle bottiglie in PET tramite compattatori e come questa modalità possa impattare positivamente sulle aree turistiche; Paola Rossi, referente rapporti esterni di Achab, che ha sottolineato l’importanza della comunicazione in contesti turistici; Maria Teresa Imparato, presidente di Legambiente Campania, ha raccontato “Riciclaestate”, la campagna dedicata alla raccolta differenziata in aree turistiche campane.
Terzo focus tematico quello degli eventi sostenibili come mezzo di disseminazione di messaggi ambientalmente positivi. Le certificazioni EcoEvents e EcoAction di Rete Ambiente e Salute (in collaborazione con Legambiente) sono state raccontate da Rossella Fugaro; Enza Brunero, Project Manager del Circolo del Design, ha presentato il Progetto “Green Culture” dedicato alla formazione alla sostenibilità degli enti culturali; Claretta Caroppo del Teatro Stabile di Torino ha illustrato l’impegno e le buone pratiche messe in atto per l’efficientamento energetico e per la sostenibilità ambientale e sociale da uno dei più importanti enti culturali nazionali.
Nella seconda giornata di Ecoforum si sono affrontati i temi, fondamentali per un’economia realmente circolare della raccolta e gestione dei RAEE e degli impianti per il recupero materia. Giorgio Arienti, Direttore Generale di Erion, ha sottolineato come ancora circa il 50% dei RAEE prodotti in Italia imbocchino strade diverse dal corretto conferimento e trattamento, spesso imboccando vie legate all’illegalità ed alla criminalità organizzata. Beba Minna, giornalista caposervizio di AltroConsumo, ha raccontato come le inchieste condotte abbiano portato a ritrovare alcuni dei RAEE “spariti” in Nord Africa o nei Paesi Balcanici e come, in Italia spesso neanche chi avrebbe l’obbligo del ritiro “1 contro 0” sia cosciente di tale obbligo o tenda a non rispettarlo. Silvia Fiore, professoressa ordinaria del Politecnico di Torino, ha illustrato i progetti in atto e l’attività didattica del PoliTo in ambito di economia circolare, con particolare attenzione ai RAEE.
Il secondo focus di giornata è stato quelli degli impianti per l’economia Circolare. Cristiana Giraudo, direttrice generale di ACSR SpA ha raccontato genesi ed aspetti tecnici dell’impianto di digestione anaerobica approvato e in via di realizzazione che sarà realizzato a Borgo San Dalmazzo. L’AD Gianni Pesce e l’ing. Claudia Leso hanno illustrato le politiche circolari di Cidiu, a partire dall’impianto di compostaggio per arrivare a quello in costruzione per il recupero di terre da spazzamento. Quest’ultimo è stato presentato con dovizia di particolari da Ezio Esposito, presidente del Gruppo Esposito, che lo sta realizzando. Mauro Anetrini, Presidente di Barricalla, ha affrontato il rapporto fra impianti e consumo di suolo, evidenziando come la sfida del futuro sia quella di minimizzarlo. Michele Castelnovo, Biorepak, ha messo l’accento sull’importanza della comunicazione raccontando le scelte fatte ed i risultati ottenuti con l’ultima campagna di Biorepak.
Ha chiuso la giornata Virginia Vergero, Direzione strategica ambiente e partnership di Gruppo Vergero: “L’economia circolare diventa realtà negli impianti di gestione rifiuti votati al recupero di materia, dove la selezione e i trattamenti dei materiali consentono di dare una seconda vita al rifiuto. Ed è solo con innovazione, investimenti, tecnologia e processi organizzati che possiamo continuare a migliorare le prestazioni ambientali di queste piattaforme chiave nella filiera del recupero. È con questa visione che Gruppo Vergero ha inaugurato un nuovo polo per la circular economy nel torinese: un hub a Venaria Reale con più di 46.000mq, impiantistica avanzata e una capacità di gestione di 45.000 tonnellate di rifiuto all’anno. Qui, le percentuali di materiale recuperato verranno ulteriormente incrementate rispetto agli standard del Gruppo, generando un impatto positivo sull’intero sistema di gestione dei rifiuti del territorio.”
La giornata si è conclusa con la premiazione dei Comuni Rifiuti Free (ovvero quelli con RD superiore al 65% e rifiuto secco residuo inferiore ai 75 kg/abitante anno), che segnano un -8 rispetto all’anno passato, e dei due Consorzi Rifiuti Free (RD maggiore al 75% e produzione di secco residuo inferiore ai 100 kg/abitante anno).
L’elenco completo dei Comuni premiati è consultabile a questo link.
Per la prima volta Legambiente Piemonte e Valle d’Aosta ha voluto conferire due menzioni speciali a due progetti che si sono particolarmente distinti nell’ultimo anno: al team studentesco del Politecnico di Torino WEEE Open, per il progetto di recupero, riparazione e ripristino di computer e altri dispositivi elettronici obsoleti, inutilizzati e dismessi all’interno del Politecnico di Torino. I dispositivi riparati vengono donati a scuole e associazioni no-profit che ne fanno richiesta attraverso l’area IT dell’ateneo; Al Consorzio Chierese Servizi per il progetto Eco3R, Laboratorio del Riuso affiliato alla rete dei “Repair Cafè”, luogo di aggregazione e scambio di competenze in cui si dà nuova vita ad oggetti non più funzionanti, secondo la filosofia del recupero e della trasformazione dei rifiuti in nuove opportunità.
“Anche quest’anno è stata una edizione ricca di spunti – ha dichiarato Sergio Capelli, direttore di Legambiente Piemonte e Valle d’Aosta – ricca di buone pratiche e di aziende ed amministrazioni virtuose. Ancora una volta è stata portata al tavolo la necessità di aumentare significativamente sia la quantità della raccolta differenziata che, soprattutto, la sua qualità. Sono anche gli operatori del riciclo che lamentano il peggioramento dei flussi in ingresso, con conseguenze importanti sulle quantità di riciclo effettivo e sulla reale efficacia degli impianti industriali. Impianti del riciclo che da sempre, con coerenza, Legambiente promuove e sostiene. Purtroppo in Piemonte si torna a parlare anche di inceneritori, sia per RSU (sarà l’Autorità Regionale Rifiuti a decidere entro la fine dell’anno se e dove si farà un nuovo impianto o se si procederà all’ampliamento dell’inceneritore del Gerbido); sia per rifiuti Speciali (assistiamo ai ricorsi da parte di A2A contro la Provincia di Biella che ha negato l’autorizzazione per realizzare un nuovo termovalorizzatore per rifiuti speciali a Cavaglià). Proprio su quest’ultimo caso vogliamo annunciare che saremo al fianco della Provincia di Biella, supportandola. Legambiente conferma, qualora ce ne fosse bisogno, la totale contrarietà a qualsiasi nuovo impianto di termovalorizzazione, veri totem all’inefficienza di un sistema di gestione che graverebbero per decenni sull’ambiente e sulla salute dei piemontesi, zavorrando lo sviluppo di una gestione sostenibile dei rifiuti, proprio là dove ci sarebbe bisogno di un’ulteriore spinta verso l’implementazione di sistemi di raccolta differenziata efficienti ed efficaci.”.

Google NewsRicevi le nostre ultime notizie da Google News - SEGUICI


Massa Critica è una piattaforma di informazione, partecipazione e attivazione dei cittadini per favorire l'attivazione di quanti condividono aspirazioni nuove e innovative su sostenibilità , tecnologia , innovazione , startup , cibo , social innovation, salute.
.Vuoi saperne di più su Massa Critica ? Ecco la nostra presentazione.
Ti  è piaciuto Massa Critica ? Bene! Iscriviti alla nostra newsletter. e al nostro canale Telegram.
Se ti piace il nostro lavoro vai alla nostra pagina su Facebook e clicca su "Like".
Se preferisci puoi anche seguirci via Twitter , via Instagram e via Youtube.


Per sostenerci abbiamo bisogno del vostro contributo, per questo vi chiediamo di supportarci concretamente attraverso Paypal o Satispay. Grazie per il vostro contributo e per la vostra fiducia!


Donazione con Paypal o carta di credito



Donazione con Satispay


Continue Reading

Disabili

Online il secondo report di ORA – Osservatorio Regionale Antidiscriminazione

È stato presentato mercoledì 4 dicembre 2024, presso il grattacielo della Regione Piemonte a Torino, il secondo report di ORA – Osservatorio Regionale Antidiscriminazione. Il secondo report ha analizzato 6.346 articoli, monitorando dal 1° novembre 2023 al 31 luglio 2024 e offrendo una panoramica dettagliata su come i media locali piemontesi trattano i temi cruciali di genere e disabilità.

O.R.A. è stata realizzata da un team di lavoro misto composto dalle ricercatrici universitarie Rossella Iannone, Francesca Tampone, Elena Morrone, Arianna Pellizzer, e da quattro professioniste dell’informazione appartenenti alla rete GIULIA: Stefanella Campana, Ilaria Leccardi, Elena Miglietti, Sara Perro.

È possibile scaricare il report completo al seguente link: https://www.collane.unito.it/oa/items/show/206#?c=0&m=0&s=0&cv=0


Google NewsRicevi le nostre ultime notizie da Google News - SEGUICI


Massa Critica è una piattaforma di informazione, partecipazione e attivazione dei cittadini per favorire l'attivazione di quanti condividono aspirazioni nuove e innovative su sostenibilità , tecnologia , innovazione , startup , cibo , social innovation, salute.
.Vuoi saperne di più su Massa Critica ? Ecco la nostra presentazione.
Ti  è piaciuto Massa Critica ? Bene! Iscriviti alla nostra newsletter. e al nostro canale Telegram.
Se ti piace il nostro lavoro vai alla nostra pagina su Facebook e clicca su "Like".
Se preferisci puoi anche seguirci via Twitter , via Instagram e via Youtube.


Per sostenerci abbiamo bisogno del vostro contributo, per questo vi chiediamo di supportarci concretamente attraverso Paypal o Satispay. Grazie per il vostro contributo e per la vostra fiducia!


Donazione con Paypal o carta di credito



Donazione con Satispay


Continue Reading

In Evidenza

Secondo il rapporto Ispra continua il consumo di suolo in Italia

Venti ettari al giorno persi, al ritmo 2,3 metri quadrati ogni secondo: nel giro di dodici mesi appena, in Italia con un consumo di 72,5 chilometri quadrati di suolo. È il dato che salta agli occhi leggendo l’edizione 2024 del rapporto di Ispra Consumo di suolo, dinamiche territoriali e servizi ecosistemici. 

Nel 2023 la riduzione dell’”effetto spugna”, ossia la capacità del terreno di assorbire e trattenere l’acqua e regolare il ciclo idrologico, secondo le stime, costa al Paese oltre 400 milioni di euro all’anno. Un “caro suolo” che si affianca agli altri costi causati dalla perdita dei servizi ecosistemici dovuti alla diminuzione della qualità dell’habitat, alla perdita della produzione agricola, allo stoccaggio di carbonio o alla regolazione del clima.

Complessivamente il consumo di suolo rimane ancora troppo elevato, anche se con una leggera diminuzione rispetto all’anno precedente e continua ad avanzare al ritmo di circa 20 ettari al giorno, ricoprendo nuovi 72,5 km2 (una superficie estesa come tutti gli edifici di Torino, Bologna e Firenze). Una crescita inferiore rispetto al dato dello scorso anno, ma che risulta sempre al di sopra della media decennale di 68,7 km2 (2012-2022) e solo in piccola parte compensata dal ripristino di aree naturali (poco più di 8 km2, dovuti in gran parte al recupero di aree di cantiere).

Cambia la classifica dei comuni “Risparmia suolo”, quelli in cui le trasformazioni della copertura del suolo sono limitate o assenti: sul podio del 2024 salgono Trieste, Bareggio (MI) e Massa Fermana (FM)

A descrivere l’andamento nazionale del fenomeno, il rapporto SNPA (Sistema Nazionale per la Protezione dell’Ambiente) “Consumo di suolo, dinamiche territoriali e servizi ecosistemici” che in questa edizione pubblica le stime per tutte le regioni, le province e i comuni italiani relative al 2023. Ad accompagnare il report, l’EcoAtlante il quale, oltre a rappresentare un vero e proprio viaggio nell’ambiente italiano, consente di consultare e scaricare le mappe dettagliate del consumo di suolo e di personalizzarle in base alle proprie esigenze.

Nel 2023 risultano cementificati più di 21.500 km2, dei quali l’88% su suolo utile. In aumento la cancellazione del suolo ormai irreversibile con nuove impermeabilizzazioni permanenti pari a 26 km2 in più rispetto all’anno precedente. Il 70% del nuovo consumo di suolo avviene nei comuni classificati come urbani secondo il recente regolamento europeo sul ripristino della natura (Nature Restoration Law). Nelle aree, dove il nuovo regolamento europeo prevede di azzerare la perdita netta di superfici naturali e di copertura arborea a partire dal 2024, si trovano nuovi cantieri (+663 ettari), edifici (+146 ettari) e piazzali asfaltati (+97ettari). In calo costante quindi la disponibilità di aree verdi: meno di un terzo della popolazione urbana riesce a raggiungere un’area verde pubblica di almeno mezzo ettaro entro 300 metri a piedi.

Proseguono le trasformazioni nelle aree a pericolosità idraulica media, dove la superficie artificiale avanza di oltre 1.100 ettari, mentre si sfiorano i 530 ettari nelle zone a pericolosità da frana, dei quali quasi 38 si trovano in aree a pericolosità molto elevata.

La Valle d’Aosta e la Liguria sono le uniche regioni sotto i 50 ettari: la Valle d’Aosta, con +17 ettari, è la regione che consuma meno suolo, seguita dalla Liguria (+28) che si contiene al di sotto di 50 ettari. Gli incrementi maggiori per l’ultimo anno si sono verificati in Veneto (+891 ettari), Emilia-Romagna (+815), Lombardia (+780), Campania (+643), Piemonte (+553) e Sicilia (+521). Escludendo le aree ripristinate (operazione da cui si ricava il consumo di suolo netto) segnano gli aumenti maggiori Emilia-Romagna (+735 ettari), Lombardia (+728), Campania (+616), Veneto (+609), Piemonte (+533) e Sicilia (+483).


Google NewsRicevi le nostre ultime notizie da Google News - SEGUICI


Massa Critica è una piattaforma di informazione, partecipazione e attivazione dei cittadini per favorire l'attivazione di quanti condividono aspirazioni nuove e innovative su sostenibilità , tecnologia , innovazione , startup , cibo , social innovation, salute.
.Vuoi saperne di più su Massa Critica ? Ecco la nostra presentazione.
Ti  è piaciuto Massa Critica ? Bene! Iscriviti alla nostra newsletter. e al nostro canale Telegram.
Se ti piace il nostro lavoro vai alla nostra pagina su Facebook e clicca su "Like".
Se preferisci puoi anche seguirci via Twitter , via Instagram e via Youtube.


Per sostenerci abbiamo bisogno del vostro contributo, per questo vi chiediamo di supportarci concretamente attraverso Paypal o Satispay. Grazie per il vostro contributo e per la vostra fiducia!


Donazione con Paypal o carta di credito



Donazione con Satispay


Continue Reading

Suggerimenti per te

Seguici via Whatsapp

Iscriviti alla nostra Newsletter

Suggerimenti

Ultimi Articoli

Suggerimenti per te

Covering Climate Now

Suggerimenti per Te

Startup on Air

Startup Onair

Suggerimenti

CO2WEB