Unlimited Edition

Om å diskutere: AI

I enhver diskusjon er det lett å finne ekstreme standpunkt. Enten er en for. Eller så er en imot. Sjeldent er det langt mellom stråmennene heller. Stråmennene kan være effektive i mange sammenhenger. Nyttige sådan. Men også kritiske for å kunne rettferdiggjøre ens egen posisjon når den ikke har noe solid fundament.

Vi ser dette i mange diskusjoner, men i dag vil jeg ta en titt på de jevne AI-diskusjonene. Obsobs: - here be strawmen!

Figur poserer agressivt mot en stråmann mens den sier: Du har ikke til enhver tid 20 agenter kjørende autonomt med full tilgang til alle dine data og systemer? You're ngmi!

Aktivt forsøk på transformativt arbeid / "fair use". Goku (trademark av Shueisha Inc) - foto: Michael Odden

På sosiale medier - og iblant på spalteplass - ser jeg gjerne utsagn og utbroderinger rundt AI-bruk av nærmest karikaturisk art. Sett fra pro-AI-siden: Hvis noen er imot uforbeholden bruk av AI så antas det at de enten er redde, ikke tilpasningsdyktige, hater innovasjon, eller bare er dumme. Vi gripe AI-mulighetene med alt vi har! Sett fra anti-AI-siden: Hvis noen bruker AI i noen som helst kapasitet så må de hate artister, være imot generell menneskelighet, eller bare være dumme. Vi kan ikke røre noe som helst AI-basert under noen omstendigheter.

Diskusjonsnivået har solid forbedringspotensiale.

Kanskje er situasjonen hakket mer kompleks? Kanskje finnes det noe imellom her? Kanskje er ikke dette fullstendig èndimensjonalt?

La oss bryte ned ulike aspekter som kan bygge oppunder ens holdning til — i dette tilfellet — AI. For hver av disse områdene så finnes det rom for å være helt eller delvis for/mot. Og for flere av områdene så finnes det potensielt mitigerende tiltak.

Denne teksten er ikke å anse som en komplett oppramsing av aspektene. Verken i mengde eller dybde. F.eks. vil jeg i en egen tekst se på ansvarlighold, menneskeliggjøring og tendenser til å gi ufortjent mye tillit.

De ulike typene AI

"AI" er en stor paraply, som alene ikke skiller mellom de ulike variantene av maskinlæringsmodeller eller grader av autonomi.

For ikke å gå inn på bruk i spill hvor det kun er en illusjon for å selge en opplevelse. (Eller... kanskje er det ikke en helt annen ting... /s).

Nyansene forsvinner ganske fort i den jevne Twitter-post og svulstige LinkedIn-innlegg. Men for mange av aspektene så spiller dette en stor rolle. De ulike arkitekturene, kategoriene modeller og mer til skiller tidvis stort hva angår potensial for kvalitetskontroll, kost av trening og inferens, typer treningsmateriale nødvendig osv. Det skjer mye spennende på denne fronten om en ikke begrenser seg til språkmodellene som får mesteparten av hauset i disse dager.

Storparten av denne teksten kommer til å ta utgangspunkt i de LLM-sentrerte, og liknende, modeller da det er i hovedsak de diskursen i dag omhandler. Mange av problemstillingene og spørsmålene som stilles kan allikevel heves forbi disse.

Bruksgrad og kvalitet

Et langtlevende argument er at hva modellene produserer har utilstrekkelig kvalitet. Her kan vi observere sannsynligheten for at modellene produserer noe fornuftig stadig går oppover. Noe takket være sterkere modeller, noe takket være kløktig bruk av strikk, binders og hyssing i form av agenter som kan iterere, lene seg på mer deterministiske verktøy, samt kjøre verifiserende steg for å evaluere de enkelte utfallene. Gjerne kombinert med "hukommelse" i form av løpende logging til fil.

Men den jevne bruker vil eksempelvis ikke være obs på konsekvensene når f.eks. kontekstvinduet overstiges og det du trodde den hadde "lært" blir kastet rett ut av vinduet (pun bare delvis ment), noe som gir festlige/katastrofale utfall. Modeller med større kontekstvindu og bedre komprimerte datasett vil bedre dette, men den iboende svakheten ulmer der allikevel.

Akkurat som at det meningsløst å ilegge LLMer sjel, intensjon og å anse det som veien til intelligens er det tilsvarende meningsløst å skråsikkert si at det er fundamentalt ubrukelig. Spørsmålene bør heller dreie seg om: Når, i hvilken form, og hvor stor grad er det verdt det? Kanskje er ikke svarene "alltid", "alle", "så mye som maksimalt mulig".

Vi har et et spenn på hvorvidt alt genereres alltid, i alle situasjoner, uforbeholdent av AI, eller om det benyttes med omhu av noen som har domeneekspertise nok til å vurdere det en får i retur.

Det etiske og det lovlige rundt bruksområder

Delvis uavhengig av de mer eller mindre objektive kvalitetene til produktene så er det en egen diskusjon om hva disse kan og bør brukes til. Hva er det tilstrekkelig med innbyrdes regulering via kommersielle krefter og sosiale spilleregler for, og hva — om noe — som skal begrenses juridisk.

Hvor mye av ansvaret skal legges kun på de som genererer, satt opp mot hvilket ansvar som også ligger på de ansvarlige bak produktene selv. Være seg ved plagiat eller ved grovere lovstridige situasjoner.

Her kan man på den ene siden gjerne argumentere for at de ulovlige aksjonene gjerne kan utføres også uten AI-støtte, men på den andre siden så er det en endring i enkelhet og skala som kanskje påvirker hvordan en bør tilnærme seg dette.

Det etiske og det lovlige rundt treningsmateriale

Mange maskinlæringsmodeller er avhengig av treningsmateriale for å innfri et akseptabelt nivå av sannsynlighet til å generere gode nok resultater. Dette materialet må anskaffes fra et sted. Felles for f.eks. alle de største språkmodellene i dag er at de er trengt på omtrent alt av innhold de har klart å skrape sammen. Det innebærer sannsynligvis alt som er tilgjengelig på internett + i noen tilfeller analoge verk som har blitt skannet. Uavhengig av eksisterende lisensvilkår.

Faller dette innunder "fair use", eller er dette noe annet? Som samfunn må vi lande på om dette kun er en form for lisensvasking eller om vi faktisk skal akseptere dette. Kanskje til og med oppfordre og aktivt legge til rette for dette. En rekke søksmål pågår i forsøk på å lande dette juridisk innenfor de ulike regionenes lovverk. Uavhengig av dette så har du kanskje et moralsk kompass som sier det ene eller andre for ditt eget vedkommende. Enkelte ledere går såpass langt at de sier rett ut at hvis de blir nødt til å håndtere rettigheter på en ryddig måte så er det ikke livsgrunnlag.

Spørsmål verdt å stille deg selv: Spiller det noen rolle for deg hvorvidt de som står for treningsmaterialet til AI-modeller blir anerkjent og/eller kompensert for sine bidrag? Hvor mye er en potensiell fremtidig generell kunstig intelligens verdt målt opp mot kostnadene en bør være villig til å ta for å komme dit? Hva tror vi dette gjør med viljen til å skape nye verk? Hvilke insentiver har vi?

Intelligens

En diskusjon som er funksjonelt kan sees som en undergren av den kvalitetsorienterte, men som konseptuelt vil kunne anses som et hovedpunkt for mange, er nettopp den om intelligens. Har noen av de produktene som er tatt frem så langt reell intelligens og forståelse, eller er det kun en emulering av symptomer av intelligens paret med menneskets antropomorferende tendenser? Og spiller det noen rolle gitt at den observerte opplevelsen er korrekt nok og/eller forførende nok?

Verdsettelse av det menneskeskapte

Dette er tydeligst innenfor kunst og kultur, men er ikke nødvendigvis begrenset til dette.

Det er mange faktorer som spiller inn her. For noen vil ikke noe kunne kalles kunst om det ikke er skapt av et levende vesen. For andre spiller det ikke noen rolle så lenge det ser pent ut. For enkelte så er skillet mellom regelrett innhold og kunst uvesentlig. For andre har det alt å si.

Vi kan se til mange aspekter gjennom historien der det har blitt skiller mellom kvalitet og kvantitet. Mellom håndverk og masseproduksjon. Mellom det unike og det vanlige.

Èn ting er med kunst og innhold en konsumerer eller tjenester en benytter, men hva da med f.eks. personlig kommunikasjon? Er det OK om email og meldinger du mottar fra en bekjent er helt eller delvis generert? Når er det greit at det menneskelige aspektet vaskes bort satt opp mot når (om noensinne) ønsker en å holde fast i det?

Spørsmål verdt å stille deg selv: Spiller det noe rolle for deg om innhold du ser/leser/hører/spiller kommer farget av liv levd, eller handler det kun om hvorvidt noe er øyeblikkelig tiltalende? Og/eller hvilke deler av et skaperverk er det mest kritisk for deg at har involvert direkte menneskelig kontakt?

Det langtidsfilosofiske

Hva gjør det med hjernene våre når vi slutter å bry oss om detaljer? Hva skjer når vi slutter å bygge basiskunnskap som fundament for å dermed utlede og bygge ny kunnskap på toppen? Hva skjer når vi kun bryr oss om de øyensynlige resultatene - den umiddelbare tilfredsstillelsen?

Nå er ikke jaget om å slippe å forholde seg til det konkrete noe nytt. Vi har sett det i mange år allerede, eksemplifisert blant annet ved avhengighetsdrevet utvikling: hvem er vel vi til å tenke på hvordan vi avgjør om et tall er oddetall når vi har is-odd?

Men det forsterkes, og det akselereres.

"Løftet" til AI er at vi snart ikke lenger skal trenge å bry oss om detaljer. Vi skal ikke lenger trenge å fundamentalt forstå hvordan noe fungerer. Lurer vi, så kan vi bare spørre. Hva skjer når vi lener oss inn i dette løftet? Tenker vi at det vil gå bra? At vi har hevet oss til et godt abstraksjonsnivå og det er dermed uproblematisk? At vinningen isåfall rettferdiggjør spinningen? Eller tenker vi at det kan ha noen konsekvenser på sikt vi bør være obs på? Kanskje er ikke alle abstraksjoner fullgode, og kanskje tar ikke enhver abstraksjon oss i en tilstrekkelig god nok retning.

Hva skjer når vi ikke lenger forer maskinen med ny original kunnskap og de kun itererer på sitt eget utsprut?

Om talspersoner og tillit

Dette er litt på siden av de mer målbare aspektene, men er fortsatt verdt å nevne. Når det kommer ekstreme utsagn så er det gjerne verdt å stille seg et par spørsmål:

  • Hva har denne personen å tjene på at utsagnet tas som det er
  • Har denne personen vært til å stole på riktigheten til tilsvarende ekstreme påstander tidligere?
  • Finnes det tilstrekkelig bevis for å understøtte gitte påsagn?

Eller rettere sagt:

Extraordinary claims require extraordinary evidence

- Carl Sagan

Når personer i ledelsene i Nvidia, OpenAI eller Anthropic kommer med utsagn som i all hovedsak vil sørge for at deres egen omsetning går opp, så er det helt innafor å være en smule kritisk.

Når personer som for en liten håndfull år siden var i ytterste front på å dytte NFTer for alt det var verdt nå har nye kurs og bøker å selge så er det også verdt å tenke som en ekstra gang.

På den motsatte siden så finnes det også de som f.eks. rett og slett er livredde for egen jobb, og det er ikke slik at alle yrkesgrupper må være skjermet for å påvirkes av teknologiske nyvinninger. Videre går det an å både være i en utsatt yrkesgruppe og samtidig ha helt gyldige innvendinger om den gitte teknologien.

Økonomisk bærekraft

Såvidt meg bekjent så er det ingen av de ledende selskapene i front på modell-siden som har en bærekraftig inntjeningsmodell. Når ("hvis") den økonomiske boblen sprekker, og vi har bygd store mengder avhengigheter til proprietære modeller - hvor snart og hvor godt vil vi kunne gjenopprette produktivitet?

"When there's a gold rush, sell shovels"

- forretningsvettregel[0]

De som tjener penger nå er de som selger og tilrettelegger maskinvaren dette kjøres på - samt selskapene som bygger på toppen av de foreløpig sterkt subsidierte modellene. Dette kan ikke vedvare. Når pengestrømmen fra investorer bremser, så vil tjeneste-selskapene mest sannsynlig bli nødt til å skru opp token-kostnadene signifikant. Første dose var gratis, hva gjør du nå? Hvor mye er du da villig til å betale for å beholde tilgang, og hva er retrett-strategien hvis det ikke lenger blir økonomisk forsvarlig?

Opphopningen av kalkuleringskraft og å gjøre seg avhengig av tredjeparter

Et fåtall selskaper står i dag for de aller største maskinparkene. Med stor margin. Legger vi på toppen av dette at flere av disse aktørene nå legger praktisk talt beslag på nødvendig maskinvare for å kunne lage alternative oppsett så har vi en situasjon der en blir nødt vil å enten leie maskinkraft av disse monopol-holderne, innfinne seg i et langt svakere oppsett, eller rett og slett avstå helt.

I hvilken grad ønsker vi å fortsette å gjøre oss avhengige av tredjeparter?

Til tross for at det er helt gjørbart å hoste å kjøre et rikt utvalg av modeller velger de aller fleste ikke å gjøre dette. Hovedgrunnene jeg møter for dette er en eller flere av disse: de ønsker å benytte et større økosystem av kapabiliteter (AKA lock-in), de ønsker tilgang på proprietære modeller og/eller de har ikke kunnskap, vilje eller råd til å sette opp tilstrekkelig gode lokale systemer.

Personvern og sikkerhetsrisiko

Med utgangspunktet i scenarioet over der en gjør seg sterkt avhengig av en tredjepart så er dette skydiskusjonen. På steroider. I tillegg til å sende dine data til en tredjepart du kanskje eller kanskje ikke kan stole på, så gir du de også i mange tilfeller mulighet til å innlemme dine data rett i treningssettet uten reell kontroll på konsekvensene.

Kanskje har man en retention-avtale på plass og stoler på at den respekteres. Kanskje kan du stole på denne tredjeparten i dag. Avhengig av produkt, domene og kundebase er dette mer eller mindre akseptabelt.

Pipelineproblematikk, ressurstilgang og rett verktøy til rett problem

Det trekkes gjerne frem at AI-løsninger kan ta plassen til juniorer. At det er OK at modellene tidvis genererer resultater av utilstrekkelig kvalitet så lenge de er i hendene på en ekspert som kan evaluere, kvalitetssikre og iterere etter behov. Men hvor kommer disse ekspertene fra? Hvordan sørger vi for å få bygd opp nok personer med dybdekompetanse til at vi har ressurser som kan holde AIer i hånden i overskuelig fremtid?

Videre så har den eksplosive veksten — da spesielt innen transformer-modeller — har ført til store konsekvenser for en rekke begrensede ressurser, som f.eks maskinvare, landareal og elektrisitet - alle med tilhørende utfordringer knyttet til tilgang og utslipp.

Her spiller det gjerne en rolle hvilken påvirkningskraft menneskeheten har på platen, og i hvilken grad AI på kort og lang sikt vil rettferdiggjøre disse.

Et ledende spørsmål: Betyr det at noe kan løses ved hjelp av AI at AI automatisk er den beste løsningen til problemet?

Vi ser fra ulike ledelseshold at så-og-så mange prosent i organisasjoner skal bruke AI innen ulike tidsfrister. Tenker vi at strategien med å gå rundt med den proverbiale hammeren og teste hvor mange ting som lar seg hamre er en god en?

Det kan i motsatt fall være verdt å trekke frem i favør av AI er at det kan senke terskelen for å komme i gang — spesielt med noe en ikke har ekspertise innen. Dette er en styrke. Spørsmålet en deretter bør stille seg er hvorvidt en skal forbli på dette nivået, eller på noe tidspunkt bevege seg videre. LLMer kan videre skilte med sin kjerne-styrke: å gi ustrukturerte søk i ustrukturert innhold. Det er kritisk avhengig med verifikasjonssteg på toppen, men enkelheten for å komme i gang kan være verdifull alene.

Men ender vi kanskje opp med å bruke AI som en enkel utvei istedenfor å fikse reelle rotårsaker? Hvor lenge kan vi feie gruff under teppet før vi kollektivt snubler, og bør vi heller prøve å unngå det?

Avslutningsvis

Jeg tenker generelt som så at det er et stykke mellom å "one-shot-generere en sang basert på AI-tjenester trent på stjålet kildemateriale, kjørende på maskinvare hos menneskefiendtlige regimer og fóret på energi fra ufiltrerte kullkraftverk" og å "bruke en lokalt kjørende og selvtrent modell i eget solcelle-drevne hus til å postprosessere egenskrevet vokal til egenkomponert låt".

Videre er det også et stykke mellom å hate all innovasjon og det å være skeptisk til overdreven bruk av et gitt produkt med bakgrunn i forståelse rundt negative aspekter. Det må være lov å mislike noe, uten at det er en fornektelse for de positive aspektene.

Man kan anerkjenne at noe er teknisk imponerende samtidig som at en ikke ønsker at det skal styre verden.

Jeg kan også se at ekstreme følelser i positiv eller negativ retning på enkeltpunkter vil kunne rettferdiggjøre underkjennelse av de negative følelsene på de resterende.

Samtidig som det må være lov å være entusiastisk for teknologisk potensial uten at det betyr at en støtter alle de negative aspektene, så — når fordeler og ulemper kommer for dage — så er det et ypperlig tidspunkt for å vurdere om tidligere holdning bør endres eller ei. Det skal ikke være noen stor skam å snu.

Elsker eller hater du AI på bakgrunn av popkulturelle romantifiseringer eller dystopifiseringer så er det en ærlig sak, men vær isåfall klar over det. Og åpen om det. Og kanskje vurder hvor mye du egentlig bør slenge rundt deg med absolutter. For min del bør du kanskje heller ikke inneha posisjoner der du tar beslutninger på vegne av enorme selskap, investeringsfond eller nasjoner.

Dette er som nevnt ikke å anse som en komplett liste over faktorer knyttet til dette feltet, og er mer en oppfordring til å forsøke bryte ned komplekse problemstillinger, sette ord på egne meninger og generelt gjøre seg selv bedre rustet til å diskutere, argumentere og ta avgjørelser.

Lykke til!