AIs voksende karbonavtrykk (2024)

Klima

AIs voksende karbonavtrykk

I disse dager handler buzz om kunstig intelligens (AI), datasystemer som kan sanse miljøet deres, tenke, lære og handle som svar på deres programmerte mål. På grunn av AIs evner er det mange måter den kan bidra til å bekjempe klimaendringer, men vil potensialet for å hjelpe til med dekarbonisering og tilpasning oppveie de enorme energimengdene den forbruker? Eller vil AIs økende karbonavtrykk sette klimamålene våre utenfor rekkevidde?

Den kunstige intelligensrevolusjonen

Tidligere i år ble flere store språkmodeller – revolusjonerende typer AI trent på enorme mengder tekst som kan generere menneskelig klingende tekst – lansert. Den første store språkmodellen dukket opp på 1950-tallet, men dagens modeller er mye mer sofistikerte. De mest populære nye modellene er Microsofts AI-drevne Bing-søkemotor, Googles Bard og OpenAIs GPT-4.

Da jeg spurte Bard hvorfor store språkmodeller er revolusjonerende, svarte den at det er «fordi de kan utføre et bredt spekter av oppgaver som tidligere ble antatt å være umulige for datamaskiner. De kan generere kreativ tekst, oversette språk og svare på spørsmål på en informativ måte.» Store språkmodeller er en typegenerativ AI, fordi modellene kan generere nye kombinasjoner av tekst basert på eksemplene og informasjonen de tidligere har sett.

Hvordan fungerer store språkmodeller?

Målet med en stor språkmodell er å gjette hva som kommer videre i en tekst. For å oppnå dette må det først trenes. Opplæring innebærer å eksponere modellen for enorme mengder data (muligens hundrevis av milliarder av ord) som kan komme fra internett, bøker, artikler, sosiale medier og spesialiserte datasett. Opplæringsprosessen kan ta uker eller måneder. Over tid finner modellen ut hvordan man veier ulike funksjoner i dataene for å utføre oppgaven den er gitt. Til å begynne med er en modells gjetninger tilfeldige, men etter hvert som treningen skrider frem, identifiserer modellen flere og flere mønstre og sammenhenger i dataene. De interne innstillingene som den lærer fra dataene kalles parametere; de representerer relasjonene mellom forskjellige ord og brukes til å lage spådommer. Modellens ytelse foredles gjennom tuning, justering av verdiene for parameterne for å finne ut hvilke som resulterer i de mest nøyaktige og relevante resultatene.

Hver generasjon av store språkmodeller har mange flere parametere enn den forrige; jo flere parametere, jo mer nøyaktige og fleksible kan de være. I 2018 hadde en stor språkmodell 100 millioner parametere. GPT-2, lansert i 2019, hadde 1,5 milliarder parametere; GPT-3 var 100 ganger større, hadde 175 milliarder parametere; ingen vet hvor stor GPT-4 er. Googles PaLM store språkmodell, som er mye kraftigere enn Bard, hadde 540 milliarder parametere.

For å behandle og analysere de enorme datamengdene, trenger store språkmodeller titusenvis av avanserte høyytelsesbrikker for trening og, når de er trent, for å lage spådommer om nye data og svare på forespørsler.

Grafikkbehandlingsenheter (GPUer), spesialiserte elektroniske kretser, brukes vanligvis fordi de kan utføre mange beregninger eller prosesser samtidig; de bruker også mer strøm enn mange andre typer sjetonger.

AI foregår for det meste i skyen – servere, databaser og programvare som er tilgjengelig over internett via eksterne datasentre. Skyen kan lagre de enorme datamengdene AI trenger for trening og gi en plattform for å distribuere de trente AI-modellene.

Hvordan AI kan bidra til å bekjempe klimaendringer

På grunn av sin evne til å analysere enorme mengder data, kunstig intelligenskan bidra til å dempe klimaendringeneog gjøre det mulig for samfunn å tilpasse seg sine utfordringer.

AI kan brukes til å analysere de mange komplekse og utviklende variablene i klimasystemet for å forbedre klimamodeller, begrenseusikkerhetersom fortsatt eksisterer, og gi bedre spådommer. Dette vil hjelpe bedrifter og lokalsamfunn med å forutse hvor forstyrrelser på grunn av klimaendringer kan oppstå og bedre forberede seg på eller tilpasse seg dem. Columbia Universitys nye senter,Lær jorden med kunstig intelligens og fysikk(LEAP) vil utvikle neste generasjons AI-basertklimamodeller, og trene eleveri felten.

AI kan bidra til å utvikle materialer som er lettere og sterkere, noe som gjør vindturbiner eller fly lettere, noe som betyr at de bruker mindre energi. Den kan designe nye materialer som bruker mindre ressurser, forbedre batterilagring eller forbedre karbonfangst. AI kan administrere elektrisitet fra en rekke fornybare energikilder, overvåke energiforbruket og identifisere muligheter for økt effektivitet i smarte nett, kraftverk, forsyningskjeder og produksjon.

AI-systemer kan oppdage og forutsi metanlekkasjer fra rørledninger. De kan overvåke flom, avskoging og ulovlig fiske i nesten sanntid. De kan gjøre landbruket mer bærekraftig ved å analysere bilder av avlinger for å finne ut hvor det kan være problemer med ernæring, skadedyr eller sykdom. AI-roboter har blitt brukt til å samle inn data i Arktis når det er for kaldt for mennesker eller drive forskning i havene. AI-systemer kan til og med grønne seg ved å finne måter å gjøre datasentre mer energieffektive på. Google bruker kunstig intelligens for å forutsi hvordan ulike kombinasjoner av handlinger påvirker energiforbruket i datasentrene, og implementerer deretter de som best reduserer energiforbruket samtidig som sikkerheten opprettholdes.

Dette er bare noen få eksempler på hva AI kan gjøre for å bidra til å håndtere klimaendringer.

Hvor mye energi bruker AI?

I dag kjører datasentre 24/7 og de fleste henter energi fra fossilt brensel, selv om det er økende innsats for å bruke fornybare energiressurser. På grunn av energien verdens datasentre forbruker, står de for2,5 til 3,7 prosentav globale klimagassutslipp, som til og med overstiger luftfartsindustriens.

Et datasenter kan ha tusenvis av datamaskiner eller mer.Foto: Sivaserver

Det meste av energien til et datasenter brukes til å betjene prosessorer og brikker. Som andre datasystemer behandler AI-systemer informasjon ved hjelp av nuller og enere. Hver gang en bit – den minste mengden data som datamaskiner kan behandle – endrer tilstanden mellom én og null, bruker den en liten mengde elektrisitet og genererer varme. Fordi servere må holdes kjølige for å fungere, går rundt 40 prosent av strømdatasentrene til massive klimaanlegg. Uten dem ville servere overopphetes og svikte.

I 2021 var det globale datasenterets strømbruk ca0,9 til 1,3 prosentav den globale etterspørselen etter elektrisitet. Enstudereestimert at den kan øke til 1,86 prosent innen 2030. Ettersom AI-modellenes evner og kompleksitet øker raskt i løpet av de neste årene, vil deres prosesserings- og energiforbruksbehov også gjøre det. Enforskningsselskap spåddat innen 2028 vil det være en firdobling av dataytelsen, og en 50-dobling i prosesseringsarbeidsmengdene på grunn av økt bruk, mer krevende spørringer og mer sofistikerte modeller med mange flere parametere. Det er anslått at energiforbruket til datasentre på det europeiske kontinentet vilvokse 28 prosentinnen 2030.

Moores lov kartlegger den fortsatte økningen i datakraft. Hver prikk representerer et forsøk på å bygge dagens beste datamaskin.Foto: Steve Jurvetson

Siden AI allerede er integrert i søkemotorer som Bing og Bard, trengs mer datakraft for å trene og kjøre modeller. Eksperter sier at dette kan øke den nødvendige datakraften – så vel som energien som brukes – med opptilfem ganger per søk. Dessuten må AI-modeller kontinuerlig omskoleres for å holde seg oppdatert med gjeldende informasjon.

Opplæring

I 2019 trente forskere fra University of Massachusetts Amherst flere store språkmodeller og fant ut at trening av en enkelt AI-modell kan avgiover 626 000 pund CO2, tilsvarende utslippene fra fem biler i løpet av deres levetid.

ENnyere studierapporterte at trening GPT-3 med 175 milliarder parametere forbrukte 1287 MWh elektrisitet, og resulterte i karbonutslipp på 502 tonn karbon, tilsvarende å kjøre 112 bensindrevne biler i et år.

Inferens

Når modellene er distribuert, kan inferens – modusen der AI lager spådommer om nye data og svarer på spørsmål – forbruke enda mer energi enn trening.Google anslåttat av energien som brukes i AI til trening og slu*tning, går 60 prosent til slu*tning og 40 prosent til trening. GPT-3daglig karbonavtrykkble estimert til å tilsvare 50 pund CO2 eller 8,4 tonn CO2 i løpet av et år.

Konklusjonsenergiforbruket er høyt fordi mens trening vanligvis utføres flere ganger for å holde modellene oppdaterte og optimaliserte, brukes konklusjoner mange ganger for å betjene millioner av brukere. To måneder etter lanseringen hadde ChatGPT 100 millioner aktive brukere. I stedet for å bruke eksisterende nettsøk som er avhengige av mindre AI-modeller, er mange mennesker ivrige etter å bruke AI til alt, men en enkelt forespørsel i ChatGPTkan forbruke 100 ganger mer energienn ett Google-søk, ifølge en teknisk ekspert.

Northeastern University og MITestimerte forskeredenne slu*tningen bruker mer energi enn trening, men det er fortsatt debatt om hvilken modus som er den største energiforbrukeren. Det som imidlertid er sikkert, er at når OpenAI, Google, Microsoft og det kinesiske søkeselskapet Baidu konkurrerer om å lage større, mer sofistikerte modeller, og etter hvert som flere bruker dem, vil karbonfotavtrykkene deres vokse. Dette kan potensielt gjøre dekarbonisering av våre samfunn mye vanskeligere.

"Hvis du ser på historien til beregningsmessige fremskritt, tror jeg vi er i "overrasket over hva vi kan gjøre, dette er flott, la oss gjøre det-fasen," saClifford Stein, midlertidig direktør ved Columbia UniversityData Science Institute, og professor i informatikk ved Fu Foundation School of Engineering and Applied Science. "Men vi burde komme til en fase hvor vi er klar over energibruken og tar det inn i våre beregninger av om vi bør eller ikke bør gjøre det, eller hvor stor modellen skal være. Vi bør utvikle verktøyene for å tenke på om det er verdt å bruke disse store språkmodellene gitt hvor mye energi de bruker, og i det minste være klar over energi- og miljøkostnadene deres.»

Hvordan kan AI gjøres grønnere?

Mange eksperter og forskere tenker på energi- og miljøkostnadene ved kunstig intelligens og prøver å gjøre den grønnere. Her er bare noen av måtene AI kan gjøres mer bærekraftig på.

Åpenhet

Du kan ikke løse et problem hvis du ikke kan måle det, så det første skrittet mot å gjøre AI grønnere er å gjøre det mulig for utviklere og selskaper å vite hvor mye strøm datamaskinene deres bruker og hvordan det oversettes til karbonutslipp. Målingene av AI-karbonavtrykk må også standardiseres slik at utviklere kan sammenligne virkningene av ulike systemer og løsninger. En gruppe forskere fra Stanford, Facebook og McGill University harutviklet en trackerå måle energibruk og karbonutslipp fra opplæring av AI-modeller. Og MicrosoftsEmission Impact Dashboard for Azuregjør det mulig for brukere å beregne nettskyens karbonavtrykk.

Bruk av fornybar energi

Ifølge Microsoft har alle de store skyleverandørene planer om å drive skydatasentrene sine på100 prosent karbonfri energi innen 2030, og noen gjør det allerede.Microsoft er engasjertå kjøre på 100 prosent fornybar energi innen 2025, og har langsiktige kontrakter for grønn energi for mange av sine datasentre, bygninger og campuser. Googles datasentre får allerede100 prosent av energien deresfra fornybare kilder.

Å flytte store jobber til datasentre der energien kan hentes fra et rent energinett gjør også en stor forskjell. For eksempelopplæring av AI-startup Hugging Faces store språkmodell BLOOMmed 176 milliarder parametere forbrukte 433 MWh elektrisitet, noe som resulterte i 25 metriske tonn CO2-ekvivalenter. Den ble trent på en fransk superdatamaskin drevet hovedsakelig på atomenergi. Sammenlign dette med treningen av GPT-3 med 175 milliarder parametere, som forbrukte 1287 MWh elektrisitet, og resulterte i karbonutslipp på 502 metriske tonn karbondioksidekvivalenter.

Bedre styring av datamaskiner

Datasentre kan ha tusenvis eller hundretusenvis av datamaskiner, men det finnes måter å gjøre dem mer energieffektive på. "Å pakke arbeidet inn på datamaskinene på en mer effektiv måte vil spare strøm," sa Stein. "Du trenger kanskje ikke så mange datamaskiner, og du kan slå av noen."

Han forsker også for tiden på implikasjonene av å kjøre datamaskiner med lavere hastigheter, noe som er mer energieffektivt. I ethvert datasenter er det jobber som krever umiddelbar respons og de som ikke gjør det. For eksempel tar treningen lang tid, men har vanligvis ingen tidsfrist. Datamaskiner kan kjøres saktere over natten, og det ville ikke gjøre noen forskjell. For slu*tninger som gjøres i sanntid, må imidlertid datamaskiner kjøre raskt.

Et annet område av Steins forskning er studiet av hvor nøyaktig en løsning må være ved databehandling. "Noen ganger får vi løsninger som er mer nøyaktige enn inndataene rettferdiggjør," sa han. "Ved å innse at du egentlig bare trenger å beregne ting omtrentlig, kan du ofte beregne dem mye raskere, og derfor på en mer energieffektiv måte." For eksempel, med noen optimaliseringsproblemer, beveger du deg gradvis mot en optimal løsning. "Ofte hvis du ser på hvordan optimalisering skjer, kommer du 99 prosent av veien dit ganske raskt, og den siste prosenten er det som faktisk tar halve tiden, eller noen ganger til og med 90 prosent av tiden," sa han. Utfordringen er å vite hvor nær du er løsningen slik at du kan stoppe tidligere.

Mer effektiv maskinvare

Brikker som er utviklet spesielt for å trene store språkmodeller, for eksempel tensorbehandlingsenheter utviklet av Google, er raskere og mer energieffektive enn noen GPUS.

Et Google-datasenter i Council Bluffs, Iowa.Foto: Chad Davis

Google hevder at datasentrene deres har kuttet energibruken betydelig ved å bruke maskinvare som avgir mindre varme og derfor trenger mindre energi til kjøling. Mange andre selskaper og forskere prøver også å utvikle mer effektiv maskinvare spesielt for AI.

De riktige algoritmene

Ulike algoritmer har styrker og svakheter, så å finne den mest effektive avhenger av oppgaven, mengden og typen data som brukes, og de tilgjengelige beregningsressursene. "Du må se på det underliggende problemet [du prøver å løse]," sa Stein. "Det er ofte mange forskjellige måter du kan beregne det på, og noen er raskere enn andre."

Folk implementerer ikke alltid den mest effektive algoritmen. "Enten fordi de ikke kjenner dem, eller fordi det er mer arbeid for programmereren, eller fordi de allerede har en implementert fra fem år siden," sa han. "Så ved å implementere algoritmer mer effektivt, kan vi spare strøm." Noen algoritmer har også lært av erfaring å være mer effektive.

Den riktige modellen

Store språkmodeller er ikke nødvendig for alle typer oppgaver. Å velge å bruke en mindre AI-modell for enklere jobber er en måte å spare energi på – mer fokuserte modeller i stedet for modeller som kan alt er mer effektive. For eksempel kan det å bruke store modeller være verdt strømmen de bruker for å prøve å finne nye antibiotika, men ikke for å skrive limericker.

Noenforskere prøver å lage språkmodellerbruker datasett som er 1/10 000 av størrelsen i de store språkmodellene. KallesBabyLM Challenge, er tanken å få en språkmodell for å lære språkets nyanser fra bunnen av slik et menneske gjør, basert på et datasett med ordene barn blir utsatt for. Hvert år møter små barn mellom 2000 og 7000 ord; for BabyLM Challenge er det maksimale antallet ord i datasettet 100 000 ord, som tilsvarer det en 13-åring vil ha blitt utsatt for. En mindre modell tar mindre tid og ressurser å trene og bruker dermed mindre energi.

Modifisering av modellene

Finjustering av eksisterende modeller i stedet for å prøve å utvikle enda større nye modeller vil gjøre AI mer effektiv og spare energi.

Noen AI-modeller er "overparametriserte." Beskjæring av nettverket for å fjerne overflødige parametere som ikke påvirker ytelsen til en modell kan redusere beregningskostnader og nødvendig lagringsplass. Målet for AI-utviklere er å finne måter å redusere antall parametere uten å ofre nøyaktigheten.

Kunnskapsdestillasjon, overføring av kunnskap modellen har lært fra et massivt nettverk til et mer kompakt, er en annen måte å redusere AI-modellstørrelsen.

Virginia Tech og Amazonstudererføderert læring, som bringer modelltreningen til dataene i stedet for å bringe data til en sentral server. I dette systemet trenes deler av modellen på data som er lagret på flere enheter på en rekke steder i stedet for på en sentralisert eller skyserver. Forent læring reduserer tiden trening tar, og mengden data som må overføres og lagres, alt dette sparer energi. Dessuten forblir dataene på de enkelte enhetene der de er, noe som sikrer datasikkerhet. Etter at de er opplært på de lokale enhetene, sendes de oppdaterte modellene tilbake til en sentral server og samles til en ny mer omfattende modell.

Nye kjølemetoder

Fordi tradisjonelle kjølingsmetoder, som klimaanlegg, ikke alltid kan holde datasentre kjølige nok, bruker Microsoft-forskere enspesiell væskekonstruert for å koke 90 grader lavere enn vannets kokepunkt for å avkjøle dataprosessorer. Servere er nedsenket i væsken, noe som ikke skader elektronisk utstyr; væsken fjerner varme fra de varme brikkene og gjør at serverne kan fortsette å fungere. Flytende nedsenkingskjøling er mer energieffektiv enn klimaanlegg, og reduserer serverens strømforbruk med 5 til 15 prosent.

Microsoft eksperimenterer også med bruken avundervannsdatasentresom er avhengig av naturlig avkjøling av havet, og havstrømmer og nærliggende vindturbiner for å generere fornybar energi. Datamaskiner plasseres i en sylindrisk beholder og senkes under vann. På land kan datamaskinens ytelse bli hemmet av oksygen, f*cktighet i luften og temperatursvingninger. Undervannssylinderen gir et stabilt miljø uten oksygen. Forskere sier at undervannsdatamaskiner har en åttendedel av feilraten som de på land.

Til slu*tt kan datasentre flytte fra skyen til verdensrommet. En oppstart kaltLonestarhar samlet inn fem millioner dollar for å bygge små datasentre på månen innen utgangen av 2023. Månedatasentre kan dra nytte av rikelig med solenergi og vil være mindre utsatt for naturkatastrofer og sabotasje.

Thales Alenia Space leder en studie om muligheten for å byggedatasentre i verdensrommetsom går på solenergi. Studien prøver å finne ut om lansering og produksjon av romdatasentre vil resultere i færre karbonutslipp enn de på land.

Offentlig støtte til bærekraftig kunstig intelligens

For å få fart på utviklingen av mer bærekraftig kunstig intelligens, må regjeringer etablere forskrifter for åpenhet om karbonutslipp og bærekraft. Skatteinsentiver er også nødvendig for å oppmuntre skyleverandører til å bygge datasentre der fornybar energi er tilgjengelig, og for å stimulere til utvidelse av rene energinett.

"Hvis vi er smarte med AI, bør det være fordelaktig [for planeten] i det lange løp," sa Stein. "Vi har absolutt evnen til å være smarte med det, å bruke det til å få alle slags energibesparelser. Jeg tror AI vil være bra for miljøet, men for å oppnå det krever vi at vi er gjennomtenkte og har godt lederskap.»

Tagger:

kunstig intelligenscs høydepunkterei høydepunkter

Relaterte innlegg

Ny studie fastslår tidspunktet for Grønlands siste smelting til rundt 400 000 år sidenAlumnaprofil: Lauren Faber O'Connor

Abonnere

Logg Inn

0Kommentarer

Innebygde tilbakemeldinger

Se alle kommentarer

AIs voksende karbonavtrykk (2024)
Top Articles
Latest Posts
Article information

Author: Duncan Muller

Last Updated:

Views: 5783

Rating: 4.9 / 5 (79 voted)

Reviews: 86% of readers found this page helpful

Author information

Name: Duncan Muller

Birthday: 1997-01-13

Address: Apt. 505 914 Phillip Crossroad, O'Konborough, NV 62411

Phone: +8555305800947

Job: Construction Agent

Hobby: Shopping, Table tennis, Snowboarding, Rafting, Motor sports, Homebrewing, Taxidermy

Introduction: My name is Duncan Muller, I am a enchanting, good, gentle, modern, tasty, nice, elegant person who loves writing and wants to share my knowledge and understanding with you.