Artificiell intelligens – eller AI – är datorkoden som gör att en maskin kan göra något som normalt kräver en mänsklig hjärna. På TikTok, till exempel, sorterar AI inläggen så att de första du ser sannolikt är de du föredrar. AI ger de användbara resultaten av varje Google-sökning. När du ber Siri att spela Taylor Swift förvandlar AI ditt tal till ett kommando för att starta hennes låtar. Men innan en AI kan göra något av det måste utvecklare träna upp den. Och den träningen slukar energi. Mycket av det. Faktum är att träningens aptit på energi snart kan bli ett stort problem, oroar forskarna nu.
Energin för att utveckla AI kommer från elnätet. Och i de flesta delar av världen sprider elektricitet koldioxid (CO2) och andra växthusgaser i luften.
För att jämföra hur olika aktiviteter påverkar klimatet kombinerar forskare ofta effekterna av alla växthusgaser till vad de kallar CO2-ekvivalenter. Under 2019 beräknade forskare vid University of Massachusetts Amherst effekten av att utveckla en AI-modell med namnet Transformer. Det släppte hela 626 000 pund CO2-ekvivalenter. Det är lika med de växthusgaser som skulle sprutas ut av fem amerikanska bilar från det att de tillverkades tills de skrotades.
Bara de största, mest komplexa modellerna använder så mycket energi. Men AI-modeller växer snabbt allt större och krafthungriga. Vissa AI-experter har slagit larm om hotet som dessa energisvin utgör.
Tack vare djupinlärning kan datorer sålla bland berg av data för att fatta snabba, användbara och smarta beslut. Ingenjörer har byggt AI som kan styra självkörande bilar eller känna igen känslor i mänskliga ansikten. Andra modeller hittar cancer i medicinska bilder eller hjälper forskare att upptäcka nya läkemedel. Den här tekniken förändrar världen.
Den kostar dock.
De bästa djupinlärningsmodellerna är AI-världens giganter. Att träna dem kräver enorma mängder datorbearbetning. De tränar på en typ av datorhårdvara som kallas grafikprocessorer (GPU). Det är samma saker som driver grafiken för ett realistiskt videospel.
Det kan ta hundratals GPU:er igång i veckor eller månader för att träna en AI-modell en gång, förklarar Lasse F. Wolff Anthony . Han är student i Schweiz vid ETH Zürich, ett tekniskt universitet. “Ju längre köra”, tillägger han, ”ju mer energi använder de.”
Idag sker det mesta av AI-utveckling i datacenter. Dessa datorfyllda byggnader står endast för cirka 2 procent av USA:s elanvändning och 1 procent av den globala energianvändningen. Och AI-utveckling tar bara upp en liten del av alla datacenters arbetsbelastning.
Maskininlärning inkluderar djupinlärning och neurala nät
Men AI:s energipåverkan är redan “tillräckligt stor för att det är värt att stanna upp och tänka på det”, argumenterar Emily M. Bender. Hon är en beräkningslingvist. Hon arbetar vid University of Washington i Seattle.
Ett vanligt mått på storleken på en djupinlärningsmodell är hur många parametrar (Puh-RAM-ih-turz) den har. Det här är vad som justeras under träningen. Dessa parametrar tillåter en modell att känna igen mönster. Modeller som hittar mönster i språket, som Transformer, brukar ha mest.
Transformer innehåller 213 miljoner parametrar. En av världens största språkmodeller 2019, GPT-2, har 1,5 miljarder parametrar. 2020 års version, GPT-3, innehåller 175 miljarder parametrar. Språkmodeller tränar också på enorma mängder data, som alla böcker och artiklar och webbsidor skrivna på engelska på internet. Och kom ihåg att den information som är tillgänglig för träning växer månad för månad, år för år.
Större modeller och större uppsättningar träningsdata gör vanligtvis en modell bättre på att känna igen mönster. Men det finns en nackdel. När modeller och datauppsättningar växer tenderar de att behöva fler GPU:er eller längre träningstider. Så de slukar också mer el.
Stora språkmodeller utför imponerande bedrifter. DALL-E, en modell som introducerades 2021, innehåller 12 miljarder parametrar. Den tränade på en datauppsättning av bilder kopplade till viss text. DALL-E kan kombinera idéer för att rita sina egna kreativa bilder. Uppmaningen här var att rita “en pingvin gjord av morot.” OpenAI
Leave a Reply