IBM slipper fire store språkmodeller laget for koding med åpen kildekode. Modellene danker ut både Metas Code Llama og Llama 3 i mange oppgaver.
IBM har sluppet deres nye språkmodeller Granite med åpen kildekode. Modellene er trent på massive datasett på 500 millioner linjer kode i over 50 kodespråk. Treningen har blant annet lært modellene å skrive kode, fikse feil og forklare komplekse konsepter innen kode.
Modellene kommer i forskjellige størrelser mellom tre og 34 milliarder parametere. De kan brukes til et vidt spekter av oppgaver og til å automatisere rutineoppgaver.
Granite gjør det godt i ytelsestester hvor man tester modellens ferdigheter innen reparasjon av kode, forklaring, redigering, oversettelse mellom forskjellige språk etc.
Koding revolusjoneres
Store språkmodeller (SSM) revolusjonerer programvareutvikling, skriver IBM på sine sider. – I større og større grad implementeres SSM i utviklerverktøy for å øke kodernes produktivitet. Allerede i 2021 lanserte IBM CodeNet som er et datasett med 500 millioner linje kode på 50 ulike språk. Det er denne datapakken som er brukt til å trene Granite.
IBM slipper Granite med åpen kildekode slik at andre utviklere kan være med å utvikle modellene og bygge applikasjoner på dem. Deres mindre modeller krever mindre datakraft og kan også trenes mer spesifikt.
Med verktøy bygget på IBM Granite-kode-modellene, ser vi for oss et utall bedriftsanvendelser for utviklere. Det kan omfatte alt fra agenter som kan skrive kode for utviklere, verktøy som kan forklare hvorfor kode ikke fungerer, og hvordan man kan fikse det.
IBM
Mange essensielle oppgaver som er en del av en utviklers hverdag – fra å generere enhetstester, til å skrive dokumentasjon eller kjøre sårbarhetstester – kan bli automatisert med disse modellene.
Granite finner du på Hugging Face, GitHub, watsonx.ai, og RHEL AI, og er lansert under Apache 2.0.
Podcast-host, redaktør og forfatter i Teknokratiet. Bachelor i filosofi og master i dokumentarregi. Regissør og fotograf i Newslab, tidligere journalist i ITavisen.