Google AI – 6 ganger større enn open AIs GPT-3

Google Brain-teamet har presentert den neste generasjonen i AI-språkmodeller. Med massive en milliard-milliard-parametre gruser Google AI Open AIs GPT-3

OpenAIs GPT-3, sjokkerte verden – men bruker til sammenligning snaue 175 milliarder parametere.

Troverdig tekst om nær sagt hva som helst

Den mest etterspurte bruken av språkmodeller er generering av tekst, men det stopper ikke der. I artikkelen «Savner du The Beatles? – AI med nytt album» skrev jeg om hvordan  Open AIs GPT-3 skriver tekst og lager bilder, ja selv kode og ny musikk i alle mulige sjangre.

Den finner data på nettet og kan lage nær sagt hva som helst basert på hva algoritmen finner på nettet.

Prøv selv med PhilosopherAI

Open AIs GPT-3 er et nevralt nettverk med en språkmodell som er trent på enorme datasett. Får den får litt tekst, genererer den forslag til tekst som følger etter.

Du kan selv prøve tjenesten PhilosopheraAI som er kunstig intelligens i praksis. Den brukes til å generere unik tekst om et hvilket som helst tema og er et godt eksempel på et praktisk verktøy til å bruke Open AIs GPT-3.

Det klarer godt å tilpasse seg forskjellige kontekster og lager forskjellig tekst hver gang. Til tider kan det være vanskelig å se at den kunstige intelligensen hverken har spesifikke meninger eller kunnskaper. Den etterligner kun andres meninger som den finner ute på det store nettet.

Systemet forstår heller ikke språk, det er bare finjustert for å få det til å se ut som om det gjør det.

Antallet parametre bestemmer kvaliteten på resultatet

Det er derfor nyheten fra Google er oppsiktsvekkende. Antall parametere, jo mer du kan justere modellen for å oppnå ønsket resultat,  jo mer kontroll på utfallet.

Google gjør modellen enklere, samtidig som de bruker mer rå regnekapasitet som gjør at de kan øke antall parametere. Google har som kjent store finansielle ressurser, tilgang på enorme datasett og anledning til å bruke så mye regnekapasitet som AI-modellen kan ta i bruk.

Googles paper:  SWITCH TRANSFORMERS: SCALING TO TRILLION PARAMETER MODELS WITH SIMPLE AND EFFICIENT SPARSITY

Google har vært kjent i de siste årene for å teste grensene for hva AI kan gjøre. Dette prosjektet er sannsynligvis dermed et ordinært løp på AI-veien for Google. Deres bruk av rå regnekraft og mulighetene med deres enorme datasett vil sannsynligvis åpne opp for helt nye bruksområder. Dette kan være nye tjenester som vi enda ikke kan se for oss hva kan være.

Det blir spennende å se hva Google vil bruke dette til. Foreløpig er det høyst uklart hvordan Google vil bruke det i sitt tjenesteunivers.

LES OGSÅ: Savner du The Beatles? – AI med nytt album

Følg AI-toppene

Om du vil holde deg oppdatert på utviklingen som skjer innen kunstig intelligens, anbefaler jeg deg å følge AI-toppene.

Jobber du ikke med kunstig intelligens i dag, men gjerne vil få oversikten? Her finner du et 30-timers gratis innføringskurs i kunstig intelligens på norsk. For deg som vil gå i dybden er det også link til 5 gratiskurs på Harvard og 500 andre kurs du kan melde deg på.

 

Recommended Posts

Legg inn kommentar

Start typing and press Enter to search

OpenAI med AI-generert album fra The Beatles Når har kanskje forskere knekt koden så roboter kan samhandle med fysiske objekter
Send this to a friend