Seguici su

In Evidenza

La Dichiarazione di Bletchley al termine dell’ AI Safety Summit per definire responsabilità e rischi dell’Intelligenza Artificiale

Al termine dell’ AI Safety Summit 2023, il vertice sulla Sicurezza dell’Intelligenza Artificiale che si è svolto a Bletchley Park, nel Regno Unito è stata presentata la “Dichiarazione di Bletchley” concordata da 28 stati tra cui Stati Uniti e Cina, volta a rafforzare gli sforzi globali per cooperare sulla sicurezza dell’intelligenza artificiale.

La Dichiarazione soddisfa gli obiettivi chiave del vertice stabilendo un accordo e una responsabilità condivisi sui rischi, sulle opportunità e su un processo avanzato per la collaborazione internazionale sulla sicurezza e la ricerca sull’intelligenza artificiale di frontiera, in particolare attraverso una maggiore collaborazione scientifica.

La dichiarazione incoraggia la trasparenza e la responsabilità da parte degli attori che sviluppano tecnologie di intelligenza artificiale di frontiera nei loro piani per misurare, monitorare e mitigare le capacità potenzialmente dannose.

La dichiarazione di Bletchley

L’intelligenza artificiale (AI) presenta enormi opportunità globali: ha il potenziale per trasformare e migliorare il benessere umano, la pace e la prosperità. Per realizzare ciò, affermiamo che, per il bene di tutti, l’intelligenza artificiale dovrebbe essere progettata, sviluppata, implementata e utilizzata in modo sicuro, in modo tale da essere incentrata sull’uomo, affidabile e responsabile. Accogliamo con favore gli sforzi compiuti finora dalla comunità internazionale per cooperare sull’intelligenza artificiale per promuovere la crescita economica inclusiva, lo sviluppo sostenibile e l’innovazione, per proteggere i diritti umani e le libertà fondamentali e per promuovere la fiducia del pubblico nei sistemi di intelligenza artificiale per realizzare appieno il loro potenziale.

I sistemi di intelligenza artificiale sono già utilizzati in molti ambiti della vita quotidiana, tra cui alloggio, occupazione, trasporti, istruzione, sanità, accessibilità e giustizia, e il loro utilizzo è destinato ad aumentare. Riconosciamo che questo è quindi un momento unico per agire e affermare la necessità di uno sviluppo sicuro dell’IA e di utilizzare le opportunità di trasformazione dell’IA per il bene e per tutti, in modo inclusivo nei nostri paesi e a livello globale. Ciò include servizi pubblici come sanità e istruzione, sicurezza alimentare, scienza, energia pulita, biodiversità e clima, per realizzare il godimento dei diritti umani e per rafforzare gli sforzi verso il raggiungimento degli obiettivi di sviluppo sostenibile delle Nazioni Unite.

Oltre a queste opportunità, l’intelligenza artificiale comporta anche rischi significativi, anche negli ambiti della vita quotidiana. A tal fine, accogliamo con favore gli sforzi internazionali volti a esaminare e affrontare il potenziale impatto dei sistemi di intelligenza artificiale nei forum esistenti e in altre iniziative pertinenti, e il riconoscimento che la tutela dei diritti umani, la trasparenza e la spiegabilità, l’equità, la responsabilità, la regolamentazione, la sicurezza, un’adeguata È necessario affrontare il problema del controllo umano, dell’etica, della mitigazione dei pregiudizi, della privacy e della protezione dei dati. Notiamo inoltre i potenziali rischi imprevisti derivanti dalla capacità di manipolare contenuti o generare contenuti ingannevoli. Tutte queste questioni sono di fondamentale importanza e affermiamo la necessità e l’urgenza di affrontarle.

Particolari rischi per la sicurezza emergono alla “frontiera” dell’IA, intesa come quei modelli di IA per scopi generali altamente capaci, compresi i modelli di base, che potrebbero svolgere un’ampia varietà di compiti, così come l’IA specifica e ristretta che potrebbe mostrare capacità che causano danno – che corrispondono o superano le capacità presenti nei modelli più avanzati di oggi. Rischi sostanziali possono derivare da un potenziale uso improprio intenzionale o da problemi di controllo non intenzionali relativi all’allineamento con l’intento umano. Questi problemi sono in parte dovuti al fatto che tali capacità non sono completamente comprese e sono quindi difficili da prevedere. Siamo particolarmente preoccupati da tali rischi in settori quali la sicurezza informatica e la biotecnologia, nonché laddove i sistemi di intelligenza artificiale di frontiera possono amplificare rischi come la disinformazione. Esiste il rischio di danni gravi, persino catastrofici, deliberati o involontari, derivanti dalle capacità più significative di questi modelli di intelligenza artificiale. Dato il tasso di cambiamento rapido e incerto dell’intelligenza artificiale, e nel contesto dell’accelerazione degli investimenti nella tecnologia, affermiamo che approfondire la nostra comprensione di questi rischi potenziali e delle azioni per affrontarli è particolarmente urgente.

Molti rischi derivanti dall’intelligenza artificiale sono intrinsecamente di natura internazionale e quindi possono essere affrontati meglio attraverso la cooperazione internazionale. Decidiamo di lavorare insieme in modo inclusivo per garantire un’IA incentrata sull’uomo, affidabile e responsabile che sia sicura e sostenga il bene di tutti attraverso i forum internazionali esistenti e altre iniziative pertinenti, per promuovere la cooperazione per affrontare l’ampia gamma di rischi posti da AI. In tal modo, riconosciamo che i paesi dovrebbero considerare l’importanza di una governance e di un approccio normativo proporzionato e pro-innovazione che massimizzi i benefici e tenga conto dei rischi associati all’intelligenza artificiale. Ciò potrebbe includere, ove opportuno, classificazioni e categorizzazioni dei rischi basate sulle circostanze nazionali e sui quadri giuridici applicabili. Notiamo inoltre l’importanza della cooperazione, ove opportuno, su approcci quali principi comuni e codici di condotta. Per quanto riguarda i rischi specifici riscontrati molto probabilmente in relazione all’IA di frontiera, decidiamo di intensificare e sostenere la nostra cooperazione e di ampliarla con altri paesi, per identificare, comprendere e, se del caso, agire, attraverso i forum internazionali esistenti e altre iniziative pertinenti, tra cui futuri vertici internazionali sulla sicurezza dell’intelligenza artificiale.

Tutti gli attori hanno un ruolo da svolgere nel garantire la sicurezza dell’IA: le nazioni, i forum internazionali e altre iniziative, le aziende, la società civile e il mondo accademico dovranno lavorare insieme. Rilevando l’importanza di un’intelligenza artificiale inclusiva e di colmare il divario digitale, riaffermiamo che la collaborazione internazionale dovrebbe cercare di coinvolgere un’ampia gamma di partner, a seconda dei casi, e accogliere con favore approcci e politiche orientati allo sviluppo che potrebbero aiutare i paesi in via di sviluppo a rafforzare lo sviluppo e l’effetto leva delle capacità dell’intelligenza artificiale. il ruolo abilitante dell’intelligenza artificiale per sostenere la crescita sostenibile e colmare il divario di sviluppo.

Affermiamo che, sebbene la sicurezza debba essere considerata in tutto il ciclo di vita dell’IA, gli attori che sviluppano capacità di IA di frontiera, in particolare quei sistemi di IA insolitamente potenti e potenzialmente dannosi, hanno una responsabilità particolarmente forte nel garantire la sicurezza di questi sistemi di IA, anche attraverso sistemi per i test di sicurezza, attraverso valutazioni e altre misure appropriate. Incoraggiamo tutti gli attori rilevanti a fornire trasparenza e responsabilità adeguate al contesto sui loro piani per misurare, monitorare e mitigare le capacità potenzialmente dannose e gli effetti associati che potrebbero emergere, in particolare per prevenire abusi e problemi di controllo e l’amplificazione di altri rischi.

Nel contesto della nostra cooperazione, e per informare l’azione a livello nazionale e internazionale, la nostra agenda per affrontare il rischio dell’IA di frontiera si concentrerà su:

identificare i rischi per la sicurezza dell’IA di interesse condiviso, costruire una comprensione scientifica condivisa e basata sull’evidenza di questi rischi e sostenere tale comprensione mentre le capacità continuano ad aumentare, nel contesto di un approccio globale più ampio alla comprensione dell’impatto dell’IA nelle nostre società.
costruendo rispettive politiche basate sul rischio in tutti i nostri paesi per garantire la sicurezza alla luce di tali rischi, collaborando in modo appropriato e riconoscendo che i nostri approcci possono differire in base alle circostanze nazionali e ai quadri giuridici applicabili. Ciò include, oltre a una maggiore trasparenza da parte degli attori privati ​​che sviluppano capacità di intelligenza artificiale di frontiera, parametri di valutazione adeguati, strumenti per test di sicurezza e lo sviluppo di capacità pertinenti del settore pubblico e della ricerca scientifica.

A sostegno di questo programma, decidiamo di sostenere una rete inclusiva a livello internazionale di ricerca scientifica sulla sicurezza dell’IA di frontiera che comprenda e integri la collaborazione multilaterale, plurilaterale e bilaterale esistente e nuova, anche attraverso forum internazionali esistenti e altre iniziative pertinenti, per facilitare la fornitura di la migliore scienza disponibile per l’elaborazione delle politiche e il bene pubblico.

Riconoscendo il potenziale positivo di trasformazione dell’intelligenza artificiale e come parte della garanzia di una più ampia cooperazione internazionale sull’intelligenza artificiale, decidiamo di sostenere un dialogo globale inclusivo che coinvolga i forum internazionali esistenti e altre iniziative pertinenti e contribuisca in modo aperto a discussioni internazionali più ampie, e continuare la ricerca sulla sicurezza dell’IA di frontiera per garantire che i vantaggi della tecnologia possano essere sfruttati in modo responsabile per il bene e per tutti. Non vediamo l’ora di incontrarci di nuovo nel 2024.

The Bletchley Declaration

Artificial Intelligence (AI) presents enormous global opportunities: it has the potential to transform and enhance human wellbeing, peace and prosperity. To realise this, we affirm that, for the good of all, AI should be designed, developed, deployed, and used, in a manner that is safe, in such a way as to be human-centric, trustworthy and responsible. We welcome the international community’s efforts so far to cooperate on AI to promote inclusive economic growth, sustainable development and innovation, to protect human rights and fundamental freedoms, and to foster public trust and confidence in AI systems to fully realise their potential.

AI systems are already deployed across many domains of daily life including housing, employment, transport, education, health, accessibility, and justice, and their use is likely to increase. We recognise that this is therefore a unique moment to act and affirm the need for the safe development of AI and for the transformative opportunities of AI to be used for good and for all, in an inclusive manner in our countries and globally. This includes for public services such as health and education, food security, in science, clean energy, biodiversity, and climate, to realise the enjoyment of human rights, and to strengthen efforts towards the achievement of the United Nations Sustainable Development Goals.

Alongside these opportunities, AI also poses significant risks, including in those domains of daily life. To that end, we welcome relevant international efforts to examine and address the potential impact of AI systems in existing fora and other relevant initiatives, and the recognition that the protection of human rights, transparency and explainability, fairness, accountability, regulation, safety, appropriate human oversight, ethics, bias mitigation, privacy and data protection needs to be addressed. We also note the potential for unforeseen risks stemming from the capability to manipulate content or generate deceptive content. All of these issues are critically important and we affirm the necessity and urgency of addressing them.

Particular safety risks arise at the ‘frontier’ of AI, understood as being those highly capable general-purpose AI models, including foundation models, that could perform a wide variety of tasks – as well as relevant specific narrow AI that could exhibit capabilities that cause harm – which match or exceed the capabilities present in today’s most advanced models. Substantial risks may arise from potential intentional misuse or unintended issues of control relating to alignment with human intent. These issues are in part because those capabilities are not fully understood and are therefore hard to predict. We are especially concerned by such risks in domains such as cybersecurity and biotechnology, as well as where frontier AI systems may amplify risks such as disinformation. There is potential for serious, even catastrophic, harm, either deliberate or unintentional, stemming from the most significant capabilities of these AI models. Given the rapid and uncertain rate of change of AI, and in the context of the acceleration of investment in technology, we affirm that deepening our understanding of these potential risks and of actions to address them is especially urgent.

Many risks arising from AI are inherently international in nature, and so are best addressed through international cooperation. We resolve to work together in an inclusive manner to ensure human-centric, trustworthy and responsible AI that is safe, and supports the good of all through existing international fora and other relevant initiatives, to promote cooperation to address the broad range of risks posed by AI. In doing so, we recognise that countries should consider the importance of a pro-innovation and proportionate governance and regulatory approach that maximises the benefits and takes into account the risks associated with AI. This could include making, where appropriate, classifications and categorisations of risk based on national circumstances and applicable legal frameworks. We also note the relevance of cooperation, where appropriate, on approaches such as common principles and codes of conduct. With regard to the specific risks most likely found in relation to frontier AI, we resolve to intensify and sustain our cooperation, and broaden it with further countries, to identify, understand and as appropriate act, through existing international fora and other relevant initiatives, including future international AI Safety Summits.

All actors have a role to play in ensuring the safety of AI: nations, international fora and other initiatives, companies, civil society and academia will need to work together. Noting the importance of inclusive AI and bridging the digital divide, we reaffirm that international collaboration should endeavour to engage and involve a broad range of partners as appropriate, and welcome development-orientated approaches and policies that could help developing countries strengthen AI capacity building and leverage the enabling role of AI to support sustainable growth and address the development gap.

We affirm that, whilst safety must be considered across the AI lifecycle, actors developing frontier AI capabilities, in particular those AI systems which are unusually powerful and potentially harmful, have a particularly strong responsibility for ensuring the safety of these AI systems, including through systems for safety testing, through evaluations, and by other appropriate measures. We encourage all relevant actors to provide context-appropriate transparency and accountability on their plans to measure, monitor and mitigate potentially harmful capabilities and the associated effects that may emerge, in particular to prevent misuse and issues of control, and the amplification of other risks.

In the context of our cooperation, and to inform action at the national and international levels, our agenda for addressing frontier AI risk will focus on:

identifying AI safety risks of shared concern, building a shared scientific and evidence-based understanding of these risks, and sustaining that understanding as capabilities continue to increase, in the context of a wider global approach to understanding the impact of AI in our societies.
building respective risk-based policies across our countries to ensure safety in light of such risks, collaborating as appropriate while recognising our approaches may differ based on national circumstances and applicable legal frameworks. This includes, alongside increased transparency by private actors developing frontier AI capabilities, appropriate evaluation metrics, tools for safety testing, and developing relevant public sector capability and scientific research.
In furtherance of this agenda, we resolve to support an internationally inclusive network of scientific research on frontier AI safety that encompasses and complements existing and new multilateral, plurilateral and bilateral collaboration, including through existing international fora and other relevant initiatives, to facilitate the provision of the best science available for policy making and the public good.

In recognition of the transformative positive potential of AI, and as part of ensuring wider international cooperation on AI, we resolve to sustain an inclusive global dialogue that engages existing international fora and other relevant initiatives and contributes in an open manner to broader international discussions, and to continue research on frontier AI safety to ensure that the benefits of the technology can be harnessed responsibly for good and for all. We look forward to meeting again in 2024.

Bletchley Park è il sito storico considerato uno dei luoghi di nascita dell’informatica e diventato storico per il suo ruolo fondamentale nella decrittazione dei codici della Seconda Guerra Mondiale. Il sito è stato il luogo in cui furono distribuiti i primi computer semi programmabili al mondo, come il Colosso utilizzato per sconfiggere il Nazisti e dove ha lavorato Alan Turing considerato il padre dell’informatica e della crittografia.


Google NewsRicevi le nostre ultime notizie da Google News - SEGUICI


Massa Critica è una piattaforma di informazione, partecipazione e attivazione dei cittadini per favorire l'attivazione di quanti condividono aspirazioni nuove e innovative su sostenibilità , tecnologia , innovazione , startup , cibo , social innovation, salute.
.Vuoi saperne di più su Massa Critica ? Ecco la nostra presentazione.
Ti  è piaciuto Massa Critica ? Bene! Iscriviti alla nostra newsletter. e al nostro canale Telegram.
Se ti piace il nostro lavoro vai alla nostra pagina su Facebook e clicca su "Like".
Se preferisci puoi anche seguirci via Twitter , via Instagram e via Youtube.


Per sostenerci abbiamo bisogno del vostro contributo, per questo vi chiediamo di supportarci concretamente attraverso Paypal o Satispay. Grazie per il vostro contributo e per la vostra fiducia!


Donazione con Paypal o carta di credito



Donazione con Satispay


Eventi

Ritorna lunedì 17 febbraio Fare Massa Critica per Capire il 5G sotto casa

Ritorna lunedì 17 febbraio Fare Massa Critica una serie di eventi organizzati da Massa Critica insieme a Quotidiano Piemontese

La partecipazione agli eventi è gratuita previa prenotazione del posto per ragioni logistiche.

Il secondo evento si tiene lunedì 17 gennaio  con il titolo Capire il 5G sotto casa un appuntamento dedicato al 5G la tecnologia di telefonia mobile e cellulare che vuole cambiare il modo di comunicare

Marco Dal Pozzo, ingegnere elettronico che lavora per Leonardo, ha scritto due libri sul 5G : Grande Manuale del 5G (2023) e Amministrare il 5G (2024) ci accompagna nel comprendere le caratteristiche delle tecnologie di telefonia mobile e cellulare che sono la quinta generazione.

Liliana Rullo dedicherà al tema un’ interpretazione espressiva. Liliana Rullo è un avvocato e autrice di libri, founder di parolestrategiche.it e direttore responsabile di Mondodiritto.it.

Per prenotare un posto all’evento

Parallelamente si tengono gli eventi di QP Incontra. in programma il primo lunedì del mese.

Tutti gli eventi si svolgono presso Rinascimenti Sociali in Via Maria Vittoria 38 a Torino a partire dalle 17.30.


Google NewsRicevi le nostre ultime notizie da Google News - SEGUICI


Massa Critica è una piattaforma di informazione, partecipazione e attivazione dei cittadini per favorire l'attivazione di quanti condividono aspirazioni nuove e innovative su sostenibilità , tecnologia , innovazione , startup , cibo , social innovation, salute.
.Vuoi saperne di più su Massa Critica ? Ecco la nostra presentazione.
Ti  è piaciuto Massa Critica ? Bene! Iscriviti alla nostra newsletter. e al nostro canale Telegram.
Se ti piace il nostro lavoro vai alla nostra pagina su Facebook e clicca su "Like".
Se preferisci puoi anche seguirci via Twitter , via Instagram e via Youtube.


Per sostenerci abbiamo bisogno del vostro contributo, per questo vi chiediamo di supportarci concretamente attraverso Paypal o Satispay. Grazie per il vostro contributo e per la vostra fiducia!


Donazione con Paypal o carta di credito



Donazione con Satispay


Continue Reading

Clima

I devastanti incendi nella contea di Los Angeles sono l’effetto di come il cambiamento climatico stia modificando i fattori di rischio delle nostre vite

La contea di Los Angeles sta affrontando una delle peggiori stagioni di incendi nella sua storia recente. Nonostante la stagione degli incendi nel sud della California solitamente si concluda a fine autunno, venti secchi e forti hanno alimentato incendi devastanti che hanno sconvolto la regione nel cuore dell’inverno. Questo fenomeno anomalo sottolinea l’intensificazione degli effetti del cambiamento climatico e mette a dura prova le risorse delle autorità locali.

Gli incendi hanno causato la morte di almeno dieci persone e distrutto quasi 10.000 strutture, tra case, aziende e infrastrutture. Più di 180.000 persone sono state costrette a evacuare le loro abitazioni, con ulteriori 200.000 sotto avviso di evacuazione. Le fiamme hanno consumato oltre 14.000 ettari di terreno, compresi parchi naturali e aree protette, con effetti devastanti sulla flora e fauna locali.

Le condizioni meteorologiche hanno giocato un ruolo chiave nella propagazione degli incendi. Venti secchi, noti come “Santa Ana winds,” hanno raggiunto velocità fino a 70 km/h, alimentando le fiamme e rendendo difficili le operazioni di contenimento. Questi venti, combinati con temperature insolitamente elevate e una vegetazione resa estremamente secca dalla siccità, hanno creato un ambiente ideale per il rapido sviluppo degli incendi.

Le autorità locali e statali hanno mobilitato risorse significative per combattere gli incendi. Più di 3.000 vigili del fuoco sono stati dispiegati sul campo, supportati da aerei antincendio e elicotteri per il lancio di acqua e ritardanti sulle fiamme. Il presidente Joe Biden ha dichiarato lo stato di emergenza, garantendo l’accesso a risorse federali per supportare le operazioni di emergenza e la ricostruzione.

Le comunità colpite si trovano ad affrontare una crisi umanitaria. Molte famiglie hanno perso tutto e sono state costrette a rifugiarsi in centri di accoglienza temporanei. Le scuole sono state chiuse, e l’aria nella regione è diventata irrespirabile a causa del fumo denso, aumentando i rischi per la salute pubblica.

Gli esperti concordano sul fatto che il cambiamento climatico abbia aggravato la frequenza e l’intensità degli incendi in California. L’alternanza di periodi di piogge intense seguiti da lunghi periodi di siccità — un fenomeno noto come “latigazo hidroclimático” — ha reso la vegetazione più suscettibile agli incendi. La rapida crescita della vegetazione durante le piogge seguita da una secchezza estrema fornisce un’enorme quantità di combustibile per le fiamme.

La crisi in corso nella contea di Los Angeles evidenzia l’urgenza di affrontare le cause profonde del cambiamento climatico. Investire in misure di prevenzione, come la gestione della vegetazione e l’adozione di tecnologie avanzate per il monitoraggio degli incendi, è fondamentale per ridurre il rischio di disastri futuri. Allo stesso tempo, è necessario sostenere le comunità colpite, garantendo loro le risorse necessarie per ricostruire e riprendersi da questa tragedia.

Gli incendi nella contea di Los Angeles rappresentano un monito per il resto del mondo: l’intensificazione degli eventi climatici estremi è una realtà che richiede azioni immediate e coordinate a livello globale.

La California continua a essere teatro di incendi devastanti da anni , con il 2024 che ha registrato una stagione particolarmente intensa. Le condizioni climatiche estreme, caratterizzate da una combinazione di periodi di piogge intense seguiti da siccità prolungate, hanno creato un ambiente propizio per la propagazione degli incendi. Questo fenomeno, noto come “latigazo hidroclimático”, ha aumentato la vulnerabilità della vegetazione, rendendola più suscettibile alle fiamme.

Le condizioni meteorologiche estreme, come ondate di calore e siccità, hanno esacerbato la frequenza e l’intensità degli incendi in California. Il cambiamento climatico, alimentato dalle emissioni di combustibili fossili, ha contribuito a questi eventi, creando un ciclo di condizioni favorevoli agli incendi. La rapida alternanza tra periodi umidi e secchi ha aumentato il rischio di incendi, con la vegetazione che cresce rapidamente durante le piogge e si secca durante le siccità, diventando combustibile per le fiamme.

Le autorità locali e federali hanno mobilitato risorse significative per combattere gli incendi, con il presidente Joe Biden che ha approvato l’assistenza federale, compreso il dispiegamento di ulteriori risorse antincendio. Nonostante gli sforzi, la portata e l’intensità degli incendi hanno messo a dura prova le capacità di risposta, evidenziando la necessità di strategie più efficaci per affrontare queste emergenze.

La devastazione causata dagli incendi ha avuto un impatto significativo sulle comunità locali, con migliaia di persone evacuate, case distrutte e infrastrutture danneggiate. La ricostruzione richiederà tempo e risorse, e la frequenza crescente di questi eventi solleva preoccupazioni sul futuro della regione. È essenziale affrontare le cause profonde del cambiamento climatico e implementare misure di mitigazione per ridurre il rischio di incendi futuri e proteggere le comunità vulnerabili.


Google NewsRicevi le nostre ultime notizie da Google News - SEGUICI


Massa Critica è una piattaforma di informazione, partecipazione e attivazione dei cittadini per favorire l'attivazione di quanti condividono aspirazioni nuove e innovative su sostenibilità , tecnologia , innovazione , startup , cibo , social innovation, salute.
.Vuoi saperne di più su Massa Critica ? Ecco la nostra presentazione.
Ti  è piaciuto Massa Critica ? Bene! Iscriviti alla nostra newsletter. e al nostro canale Telegram.
Se ti piace il nostro lavoro vai alla nostra pagina su Facebook e clicca su "Like".
Se preferisci puoi anche seguirci via Twitter , via Instagram e via Youtube.


Per sostenerci abbiamo bisogno del vostro contributo, per questo vi chiediamo di supportarci concretamente attraverso Paypal o Satispay. Grazie per il vostro contributo e per la vostra fiducia!


Donazione con Paypal o carta di credito



Donazione con Satispay


Continue Reading

Clima

Il 2024 si è confermato come l’anno più caldo da quando si eseguono registrazioni meteorologiche con copertura globale

L’agenzia Copernicus ECMWF ha diffuso i dati sul clima globale del 2024. Il 2024 si è confermato come l’anno più caldo da quando si eseguono registrazioni meteorologiche con copertura globale (1850): la temperatura media planetaria (15,10 °C) ha superato di 0,12 °C il precedente (e già sorprendente) primato del 2023, e di 1,6 °C i livelli preindustriali. Si tratta del primo anno a varcare il limite di +1,5 °C.

Questo non comporta ancora il superamento della soglia indicata dall’Accordo di Parigi – che si riferisce al livello di riscaldamento di +1,5 °C come media ventennale – tuttavia la situazione è sintomatica della rapidità con cui ci stiamo avviando verso uno stato climatico pericoloso per gli equilibri della biosfera, umanità inclusa.

Se non bastasse gli ultimi 10 anni (2015–2024) sono stati i 10 più caldi nel mondo. A livello continentale, Il 2024 è risultato l’anno più caldo ovunque salvo in Antartide e Oceania. In Europa, con un’anomalia di +1,47 °C rispetto alla media 1991-2020, si è superato di 0,28 °C il precedente record del 2020.

Un nuovo primato di temperatura media giornaliera a scala planetaria è stato stabilito il 22 luglio 2024 (17,16 °C) nella serie di rianalisi globale ERA5 con inizio nel 1940. Il 2024 ha visto anche un nuovo record di temperatura media annua della superficie oceanica (zone extra polari), pari a 20,87 °C, superando di 0,51 °C la media 1991-2020, e di 0,28 °C il precedente massimo del 2020.

Per il secondo anno consecutivo (2023 e 2024) il ghiaccio marino intorno all’Antartide ha raggiunto o avvicinato (a seconda dei periodi) i record negativi di estensione.


Google NewsRicevi le nostre ultime notizie da Google News - SEGUICI


Massa Critica è una piattaforma di informazione, partecipazione e attivazione dei cittadini per favorire l'attivazione di quanti condividono aspirazioni nuove e innovative su sostenibilità , tecnologia , innovazione , startup , cibo , social innovation, salute.
.Vuoi saperne di più su Massa Critica ? Ecco la nostra presentazione.
Ti  è piaciuto Massa Critica ? Bene! Iscriviti alla nostra newsletter. e al nostro canale Telegram.
Se ti piace il nostro lavoro vai alla nostra pagina su Facebook e clicca su "Like".
Se preferisci puoi anche seguirci via Twitter , via Instagram e via Youtube.


Per sostenerci abbiamo bisogno del vostro contributo, per questo vi chiediamo di supportarci concretamente attraverso Paypal o Satispay. Grazie per il vostro contributo e per la vostra fiducia!


Donazione con Paypal o carta di credito



Donazione con Satispay


Continue Reading

Suggerimenti per te

Seguici via Whatsapp

Iscriviti alla nostra Newsletter

Suggerimenti

Ultimi Articoli

Suggerimenti per te

Covering Climate Now

Suggerimenti per Te

Startup on Air

Startup Onair

Suggerimenti

CO2WEB