In Evidenza
La Dichiarazione di Bletchley al termine dell’ AI Safety Summit per definire responsabilità e rischi dell’Intelligenza Artificiale
Al termine dell’ AI Safety Summit 2023, il vertice sulla Sicurezza dell’Intelligenza Artificiale che si è svolto a Bletchley Park, nel Regno Unito è stata presentata la “Dichiarazione di Bletchley” concordata da 28 stati tra cui Stati Uniti e Cina, volta a rafforzare gli sforzi globali per cooperare sulla sicurezza dell’intelligenza artificiale.
La Dichiarazione soddisfa gli obiettivi chiave del vertice stabilendo un accordo e una responsabilità condivisi sui rischi, sulle opportunità e su un processo avanzato per la collaborazione internazionale sulla sicurezza e la ricerca sull’intelligenza artificiale di frontiera, in particolare attraverso una maggiore collaborazione scientifica.
La dichiarazione incoraggia la trasparenza e la responsabilità da parte degli attori che sviluppano tecnologie di intelligenza artificiale di frontiera nei loro piani per misurare, monitorare e mitigare le capacità potenzialmente dannose.
La dichiarazione di Bletchley
L’intelligenza artificiale (AI) presenta enormi opportunità globali: ha il potenziale per trasformare e migliorare il benessere umano, la pace e la prosperità. Per realizzare ciò, affermiamo che, per il bene di tutti, l’intelligenza artificiale dovrebbe essere progettata, sviluppata, implementata e utilizzata in modo sicuro, in modo tale da essere incentrata sull’uomo, affidabile e responsabile. Accogliamo con favore gli sforzi compiuti finora dalla comunità internazionale per cooperare sull’intelligenza artificiale per promuovere la crescita economica inclusiva, lo sviluppo sostenibile e l’innovazione, per proteggere i diritti umani e le libertà fondamentali e per promuovere la fiducia del pubblico nei sistemi di intelligenza artificiale per realizzare appieno il loro potenziale.
I sistemi di intelligenza artificiale sono già utilizzati in molti ambiti della vita quotidiana, tra cui alloggio, occupazione, trasporti, istruzione, sanità, accessibilità e giustizia, e il loro utilizzo è destinato ad aumentare. Riconosciamo che questo è quindi un momento unico per agire e affermare la necessità di uno sviluppo sicuro dell’IA e di utilizzare le opportunità di trasformazione dell’IA per il bene e per tutti, in modo inclusivo nei nostri paesi e a livello globale. Ciò include servizi pubblici come sanità e istruzione, sicurezza alimentare, scienza, energia pulita, biodiversità e clima, per realizzare il godimento dei diritti umani e per rafforzare gli sforzi verso il raggiungimento degli obiettivi di sviluppo sostenibile delle Nazioni Unite.
Oltre a queste opportunità, l’intelligenza artificiale comporta anche rischi significativi, anche negli ambiti della vita quotidiana. A tal fine, accogliamo con favore gli sforzi internazionali volti a esaminare e affrontare il potenziale impatto dei sistemi di intelligenza artificiale nei forum esistenti e in altre iniziative pertinenti, e il riconoscimento che la tutela dei diritti umani, la trasparenza e la spiegabilità, l’equità, la responsabilità, la regolamentazione, la sicurezza, un’adeguata È necessario affrontare il problema del controllo umano, dell’etica, della mitigazione dei pregiudizi, della privacy e della protezione dei dati. Notiamo inoltre i potenziali rischi imprevisti derivanti dalla capacità di manipolare contenuti o generare contenuti ingannevoli. Tutte queste questioni sono di fondamentale importanza e affermiamo la necessità e l’urgenza di affrontarle.
Particolari rischi per la sicurezza emergono alla “frontiera” dell’IA, intesa come quei modelli di IA per scopi generali altamente capaci, compresi i modelli di base, che potrebbero svolgere un’ampia varietà di compiti, così come l’IA specifica e ristretta che potrebbe mostrare capacità che causano danno – che corrispondono o superano le capacità presenti nei modelli più avanzati di oggi. Rischi sostanziali possono derivare da un potenziale uso improprio intenzionale o da problemi di controllo non intenzionali relativi all’allineamento con l’intento umano. Questi problemi sono in parte dovuti al fatto che tali capacità non sono completamente comprese e sono quindi difficili da prevedere. Siamo particolarmente preoccupati da tali rischi in settori quali la sicurezza informatica e la biotecnologia, nonché laddove i sistemi di intelligenza artificiale di frontiera possono amplificare rischi come la disinformazione. Esiste il rischio di danni gravi, persino catastrofici, deliberati o involontari, derivanti dalle capacità più significative di questi modelli di intelligenza artificiale. Dato il tasso di cambiamento rapido e incerto dell’intelligenza artificiale, e nel contesto dell’accelerazione degli investimenti nella tecnologia, affermiamo che approfondire la nostra comprensione di questi rischi potenziali e delle azioni per affrontarli è particolarmente urgente.
Molti rischi derivanti dall’intelligenza artificiale sono intrinsecamente di natura internazionale e quindi possono essere affrontati meglio attraverso la cooperazione internazionale. Decidiamo di lavorare insieme in modo inclusivo per garantire un’IA incentrata sull’uomo, affidabile e responsabile che sia sicura e sostenga il bene di tutti attraverso i forum internazionali esistenti e altre iniziative pertinenti, per promuovere la cooperazione per affrontare l’ampia gamma di rischi posti da AI. In tal modo, riconosciamo che i paesi dovrebbero considerare l’importanza di una governance e di un approccio normativo proporzionato e pro-innovazione che massimizzi i benefici e tenga conto dei rischi associati all’intelligenza artificiale. Ciò potrebbe includere, ove opportuno, classificazioni e categorizzazioni dei rischi basate sulle circostanze nazionali e sui quadri giuridici applicabili. Notiamo inoltre l’importanza della cooperazione, ove opportuno, su approcci quali principi comuni e codici di condotta. Per quanto riguarda i rischi specifici riscontrati molto probabilmente in relazione all’IA di frontiera, decidiamo di intensificare e sostenere la nostra cooperazione e di ampliarla con altri paesi, per identificare, comprendere e, se del caso, agire, attraverso i forum internazionali esistenti e altre iniziative pertinenti, tra cui futuri vertici internazionali sulla sicurezza dell’intelligenza artificiale.
Tutti gli attori hanno un ruolo da svolgere nel garantire la sicurezza dell’IA: le nazioni, i forum internazionali e altre iniziative, le aziende, la società civile e il mondo accademico dovranno lavorare insieme. Rilevando l’importanza di un’intelligenza artificiale inclusiva e di colmare il divario digitale, riaffermiamo che la collaborazione internazionale dovrebbe cercare di coinvolgere un’ampia gamma di partner, a seconda dei casi, e accogliere con favore approcci e politiche orientati allo sviluppo che potrebbero aiutare i paesi in via di sviluppo a rafforzare lo sviluppo e l’effetto leva delle capacità dell’intelligenza artificiale. il ruolo abilitante dell’intelligenza artificiale per sostenere la crescita sostenibile e colmare il divario di sviluppo.
Affermiamo che, sebbene la sicurezza debba essere considerata in tutto il ciclo di vita dell’IA, gli attori che sviluppano capacità di IA di frontiera, in particolare quei sistemi di IA insolitamente potenti e potenzialmente dannosi, hanno una responsabilità particolarmente forte nel garantire la sicurezza di questi sistemi di IA, anche attraverso sistemi per i test di sicurezza, attraverso valutazioni e altre misure appropriate. Incoraggiamo tutti gli attori rilevanti a fornire trasparenza e responsabilità adeguate al contesto sui loro piani per misurare, monitorare e mitigare le capacità potenzialmente dannose e gli effetti associati che potrebbero emergere, in particolare per prevenire abusi e problemi di controllo e l’amplificazione di altri rischi.
Nel contesto della nostra cooperazione, e per informare l’azione a livello nazionale e internazionale, la nostra agenda per affrontare il rischio dell’IA di frontiera si concentrerà su:
identificare i rischi per la sicurezza dell’IA di interesse condiviso, costruire una comprensione scientifica condivisa e basata sull’evidenza di questi rischi e sostenere tale comprensione mentre le capacità continuano ad aumentare, nel contesto di un approccio globale più ampio alla comprensione dell’impatto dell’IA nelle nostre società.
costruendo rispettive politiche basate sul rischio in tutti i nostri paesi per garantire la sicurezza alla luce di tali rischi, collaborando in modo appropriato e riconoscendo che i nostri approcci possono differire in base alle circostanze nazionali e ai quadri giuridici applicabili. Ciò include, oltre a una maggiore trasparenza da parte degli attori privati che sviluppano capacità di intelligenza artificiale di frontiera, parametri di valutazione adeguati, strumenti per test di sicurezza e lo sviluppo di capacità pertinenti del settore pubblico e della ricerca scientifica.A sostegno di questo programma, decidiamo di sostenere una rete inclusiva a livello internazionale di ricerca scientifica sulla sicurezza dell’IA di frontiera che comprenda e integri la collaborazione multilaterale, plurilaterale e bilaterale esistente e nuova, anche attraverso forum internazionali esistenti e altre iniziative pertinenti, per facilitare la fornitura di la migliore scienza disponibile per l’elaborazione delle politiche e il bene pubblico.
Riconoscendo il potenziale positivo di trasformazione dell’intelligenza artificiale e come parte della garanzia di una più ampia cooperazione internazionale sull’intelligenza artificiale, decidiamo di sostenere un dialogo globale inclusivo che coinvolga i forum internazionali esistenti e altre iniziative pertinenti e contribuisca in modo aperto a discussioni internazionali più ampie, e continuare la ricerca sulla sicurezza dell’IA di frontiera per garantire che i vantaggi della tecnologia possano essere sfruttati in modo responsabile per il bene e per tutti. Non vediamo l’ora di incontrarci di nuovo nel 2024.
The Bletchley Declaration
Artificial Intelligence (AI) presents enormous global opportunities: it has the potential to transform and enhance human wellbeing, peace and prosperity. To realise this, we affirm that, for the good of all, AI should be designed, developed, deployed, and used, in a manner that is safe, in such a way as to be human-centric, trustworthy and responsible. We welcome the international community’s efforts so far to cooperate on AI to promote inclusive economic growth, sustainable development and innovation, to protect human rights and fundamental freedoms, and to foster public trust and confidence in AI systems to fully realise their potential.
AI systems are already deployed across many domains of daily life including housing, employment, transport, education, health, accessibility, and justice, and their use is likely to increase. We recognise that this is therefore a unique moment to act and affirm the need for the safe development of AI and for the transformative opportunities of AI to be used for good and for all, in an inclusive manner in our countries and globally. This includes for public services such as health and education, food security, in science, clean energy, biodiversity, and climate, to realise the enjoyment of human rights, and to strengthen efforts towards the achievement of the United Nations Sustainable Development Goals.
Alongside these opportunities, AI also poses significant risks, including in those domains of daily life. To that end, we welcome relevant international efforts to examine and address the potential impact of AI systems in existing fora and other relevant initiatives, and the recognition that the protection of human rights, transparency and explainability, fairness, accountability, regulation, safety, appropriate human oversight, ethics, bias mitigation, privacy and data protection needs to be addressed. We also note the potential for unforeseen risks stemming from the capability to manipulate content or generate deceptive content. All of these issues are critically important and we affirm the necessity and urgency of addressing them.
Particular safety risks arise at the ‘frontier’ of AI, understood as being those highly capable general-purpose AI models, including foundation models, that could perform a wide variety of tasks – as well as relevant specific narrow AI that could exhibit capabilities that cause harm – which match or exceed the capabilities present in today’s most advanced models. Substantial risks may arise from potential intentional misuse or unintended issues of control relating to alignment with human intent. These issues are in part because those capabilities are not fully understood and are therefore hard to predict. We are especially concerned by such risks in domains such as cybersecurity and biotechnology, as well as where frontier AI systems may amplify risks such as disinformation. There is potential for serious, even catastrophic, harm, either deliberate or unintentional, stemming from the most significant capabilities of these AI models. Given the rapid and uncertain rate of change of AI, and in the context of the acceleration of investment in technology, we affirm that deepening our understanding of these potential risks and of actions to address them is especially urgent.
Many risks arising from AI are inherently international in nature, and so are best addressed through international cooperation. We resolve to work together in an inclusive manner to ensure human-centric, trustworthy and responsible AI that is safe, and supports the good of all through existing international fora and other relevant initiatives, to promote cooperation to address the broad range of risks posed by AI. In doing so, we recognise that countries should consider the importance of a pro-innovation and proportionate governance and regulatory approach that maximises the benefits and takes into account the risks associated with AI. This could include making, where appropriate, classifications and categorisations of risk based on national circumstances and applicable legal frameworks. We also note the relevance of cooperation, where appropriate, on approaches such as common principles and codes of conduct. With regard to the specific risks most likely found in relation to frontier AI, we resolve to intensify and sustain our cooperation, and broaden it with further countries, to identify, understand and as appropriate act, through existing international fora and other relevant initiatives, including future international AI Safety Summits.
All actors have a role to play in ensuring the safety of AI: nations, international fora and other initiatives, companies, civil society and academia will need to work together. Noting the importance of inclusive AI and bridging the digital divide, we reaffirm that international collaboration should endeavour to engage and involve a broad range of partners as appropriate, and welcome development-orientated approaches and policies that could help developing countries strengthen AI capacity building and leverage the enabling role of AI to support sustainable growth and address the development gap.
We affirm that, whilst safety must be considered across the AI lifecycle, actors developing frontier AI capabilities, in particular those AI systems which are unusually powerful and potentially harmful, have a particularly strong responsibility for ensuring the safety of these AI systems, including through systems for safety testing, through evaluations, and by other appropriate measures. We encourage all relevant actors to provide context-appropriate transparency and accountability on their plans to measure, monitor and mitigate potentially harmful capabilities and the associated effects that may emerge, in particular to prevent misuse and issues of control, and the amplification of other risks.
In the context of our cooperation, and to inform action at the national and international levels, our agenda for addressing frontier AI risk will focus on:
identifying AI safety risks of shared concern, building a shared scientific and evidence-based understanding of these risks, and sustaining that understanding as capabilities continue to increase, in the context of a wider global approach to understanding the impact of AI in our societies.
building respective risk-based policies across our countries to ensure safety in light of such risks, collaborating as appropriate while recognising our approaches may differ based on national circumstances and applicable legal frameworks. This includes, alongside increased transparency by private actors developing frontier AI capabilities, appropriate evaluation metrics, tools for safety testing, and developing relevant public sector capability and scientific research.
In furtherance of this agenda, we resolve to support an internationally inclusive network of scientific research on frontier AI safety that encompasses and complements existing and new multilateral, plurilateral and bilateral collaboration, including through existing international fora and other relevant initiatives, to facilitate the provision of the best science available for policy making and the public good.In recognition of the transformative positive potential of AI, and as part of ensuring wider international cooperation on AI, we resolve to sustain an inclusive global dialogue that engages existing international fora and other relevant initiatives and contributes in an open manner to broader international discussions, and to continue research on frontier AI safety to ensure that the benefits of the technology can be harnessed responsibly for good and for all. We look forward to meeting again in 2024.
Bletchley Park è il sito storico considerato uno dei luoghi di nascita dell’informatica e diventato storico per il suo ruolo fondamentale nella decrittazione dei codici della Seconda Guerra Mondiale. Il sito è stato il luogo in cui furono distribuiti i primi computer semi programmabili al mondo, come il Colosso utilizzato per sconfiggere il Nazisti e dove ha lavorato Alan Turing considerato il padre dell’informatica e della crittografia.
Ricevi le nostre ultime notizie da Google News - SEGUICI
Massa Critica è una piattaforma di informazione, partecipazione e attivazione dei cittadini per favorire l'attivazione di quanti condividono aspirazioni nuove e innovative su sostenibilità , tecnologia , innovazione , startup , cibo , social innovation, salute.
.Vuoi saperne di più su Massa Critica ? Ecco la nostra presentazione.
Ti è piaciuto Massa Critica ? Bene! Iscriviti alla nostra newsletter. e al nostro canale Telegram.
Se ti piace il nostro lavoro vai alla nostra pagina su Facebook e clicca su "Like".
Se preferisci puoi anche seguirci via Twitter , via Instagram e via Youtube.
Per sostenerci abbiamo bisogno del vostro contributo, per questo vi chiediamo di supportarci concretamente attraverso Paypal o Satispay. Grazie per il vostro contributo e per la vostra fiducia!
Donazione con Paypal o carta di credito
Donazione con Satispay
Economia circolare
VIII EcoForum per l’Economia Circolare – Per la prima volta calano i Comuni Rifiuti Free in Piemonte
Ricevi le nostre ultime notizie da Google News - SEGUICI
Massa Critica è una piattaforma di informazione, partecipazione e attivazione dei cittadini per favorire l'attivazione di quanti condividono aspirazioni nuove e innovative su sostenibilità , tecnologia , innovazione , startup , cibo , social innovation, salute.
.Vuoi saperne di più su Massa Critica ? Ecco la nostra presentazione.
Ti è piaciuto Massa Critica ? Bene! Iscriviti alla nostra newsletter. e al nostro canale Telegram.
Se ti piace il nostro lavoro vai alla nostra pagina su Facebook e clicca su "Like".
Se preferisci puoi anche seguirci via Twitter , via Instagram e via Youtube.
Per sostenerci abbiamo bisogno del vostro contributo, per questo vi chiediamo di supportarci concretamente attraverso Paypal o Satispay. Grazie per il vostro contributo e per la vostra fiducia!
Donazione con Paypal o carta di credito
Donazione con Satispay
Disabili
Online il secondo report di ORA – Osservatorio Regionale Antidiscriminazione
È stato presentato mercoledì 4 dicembre 2024, presso il grattacielo della Regione Piemonte a Torino, il secondo report di ORA – Osservatorio Regionale Antidiscriminazione. Il secondo report ha analizzato 6.346 articoli, monitorando dal 1° novembre 2023 al 31 luglio 2024 e offrendo una panoramica dettagliata su come i media locali piemontesi trattano i temi cruciali di genere e disabilità.
O.R.A. è stata realizzata da un team di lavoro misto composto dalle ricercatrici universitarie Rossella Iannone, Francesca Tampone, Elena Morrone, Arianna Pellizzer, e da quattro professioniste dell’informazione appartenenti alla rete GIULIA: Stefanella Campana, Ilaria Leccardi, Elena Miglietti, Sara Perro.
È possibile scaricare il report completo al seguente link: https://www.collane.unito.it/oa/items/show/206#?c=0&m=0&s=0&cv=0
Ricevi le nostre ultime notizie da Google News - SEGUICI
Massa Critica è una piattaforma di informazione, partecipazione e attivazione dei cittadini per favorire l'attivazione di quanti condividono aspirazioni nuove e innovative su sostenibilità , tecnologia , innovazione , startup , cibo , social innovation, salute.
.Vuoi saperne di più su Massa Critica ? Ecco la nostra presentazione.
Ti è piaciuto Massa Critica ? Bene! Iscriviti alla nostra newsletter. e al nostro canale Telegram.
Se ti piace il nostro lavoro vai alla nostra pagina su Facebook e clicca su "Like".
Se preferisci puoi anche seguirci via Twitter , via Instagram e via Youtube.
Per sostenerci abbiamo bisogno del vostro contributo, per questo vi chiediamo di supportarci concretamente attraverso Paypal o Satispay. Grazie per il vostro contributo e per la vostra fiducia!
Donazione con Paypal o carta di credito
Donazione con Satispay
In Evidenza
Secondo il rapporto Ispra continua il consumo di suolo in Italia
Venti ettari al giorno persi, al ritmo 2,3 metri quadrati ogni secondo: nel giro di dodici mesi appena, in Italia con un consumo di 72,5 chilometri quadrati di suolo. È il dato che salta agli occhi leggendo l’edizione 2024 del rapporto di Ispra Consumo di suolo, dinamiche territoriali e servizi ecosistemici.
Nel 2023 la riduzione dell’”effetto spugna”, ossia la capacità del terreno di assorbire e trattenere l’acqua e regolare il ciclo idrologico, secondo le stime, costa al Paese oltre 400 milioni di euro all’anno. Un “caro suolo” che si affianca agli altri costi causati dalla perdita dei servizi ecosistemici dovuti alla diminuzione della qualità dell’habitat, alla perdita della produzione agricola, allo stoccaggio di carbonio o alla regolazione del clima.
Cambia la classifica dei comuni “Risparmia suolo”, quelli in cui le trasformazioni della copertura del suolo sono limitate o assenti: sul podio del 2024 salgono Trieste, Bareggio (MI) e Massa Fermana (FM)
A descrivere l’andamento nazionale del fenomeno, il rapporto SNPA (Sistema Nazionale per la Protezione dell’Ambiente) “Consumo di suolo, dinamiche territoriali e servizi ecosistemici” che in questa edizione pubblica le stime per tutte le regioni, le province e i comuni italiani relative al 2023. Ad accompagnare il report, l’EcoAtlante il quale, oltre a rappresentare un vero e proprio viaggio nell’ambiente italiano, consente di consultare e scaricare le mappe dettagliate del consumo di suolo e di personalizzarle in base alle proprie esigenze.
Nel 2023 risultano cementificati più di 21.500 km2, dei quali l’88% su suolo utile. In aumento la cancellazione del suolo ormai irreversibile con nuove impermeabilizzazioni permanenti pari a 26 km2 in più rispetto all’anno precedente. Il 70% del nuovo consumo di suolo avviene nei comuni classificati come urbani secondo il recente regolamento europeo sul ripristino della natura (Nature Restoration Law). Nelle aree, dove il nuovo regolamento europeo prevede di azzerare la perdita netta di superfici naturali e di copertura arborea a partire dal 2024, si trovano nuovi cantieri (+663 ettari), edifici (+146 ettari) e piazzali asfaltati (+97ettari). In calo costante quindi la disponibilità di aree verdi: meno di un terzo della popolazione urbana riesce a raggiungere un’area verde pubblica di almeno mezzo ettaro entro 300 metri a piedi.
Proseguono le trasformazioni nelle aree a pericolosità idraulica media, dove la superficie artificiale avanza di oltre 1.100 ettari, mentre si sfiorano i 530 ettari nelle zone a pericolosità da frana, dei quali quasi 38 si trovano in aree a pericolosità molto elevata.
La Valle d’Aosta e la Liguria sono le uniche regioni sotto i 50 ettari: la Valle d’Aosta, con +17 ettari, è la regione che consuma meno suolo, seguita dalla Liguria (+28) che si contiene al di sotto di 50 ettari. Gli incrementi maggiori per l’ultimo anno si sono verificati in Veneto (+891 ettari), Emilia-Romagna (+815), Lombardia (+780), Campania (+643), Piemonte (+553) e Sicilia (+521). Escludendo le aree ripristinate (operazione da cui si ricava il consumo di suolo netto) segnano gli aumenti maggiori Emilia-Romagna (+735 ettari), Lombardia (+728), Campania (+616), Veneto (+609), Piemonte (+533) e Sicilia (+483).
Ricevi le nostre ultime notizie da Google News - SEGUICI
Massa Critica è una piattaforma di informazione, partecipazione e attivazione dei cittadini per favorire l'attivazione di quanti condividono aspirazioni nuove e innovative su sostenibilità , tecnologia , innovazione , startup , cibo , social innovation, salute.
.Vuoi saperne di più su Massa Critica ? Ecco la nostra presentazione.
Ti è piaciuto Massa Critica ? Bene! Iscriviti alla nostra newsletter. e al nostro canale Telegram.
Se ti piace il nostro lavoro vai alla nostra pagina su Facebook e clicca su "Like".
Se preferisci puoi anche seguirci via Twitter , via Instagram e via Youtube.
Per sostenerci abbiamo bisogno del vostro contributo, per questo vi chiediamo di supportarci concretamente attraverso Paypal o Satispay. Grazie per il vostro contributo e per la vostra fiducia!
Donazione con Paypal o carta di credito
Donazione con Satispay