Tartalomjegyzék tartalomjegyzék A mobil eszközökre kész és a telepítésre kész
A Google AI erőfeszítései a Gemini szinonimái, amelyek a legnépszerűbb termékeinek szerves elemévé váltak a Worksuite szoftver és a hardver között is. A vállalat azonban már több mint egy éve több nyílt forráskódú AI modellt is kiadott a Gemma címke alatt.
Ma a Google feltárta a harmadik generációs nyílt forráskódú AI modelleket, néhány lenyűgöző követeléssel. A Gemma 3 modellek négy változatban kaphatók – 1 milliárd, 4 milliárd, 12 milliárd és 27 milliárd paraméter -, és úgy tervezték, hogy az okostelefonoktól a húsos munkaállomásokig terjedő eszközökön futhassanak.
Készen áll a mobil eszközökre Google
A Google szerint a Gemma 3 a világ legjobb egy-gyorsító modellje, ami azt jelenti, hogy egyetlen GPU-n vagy TPU-n futhat, ahelyett, hogy egy egész klasztert igényelne. Elméletileg ez azt jelenti, hogy egy GEMMA 3 AI modell natív módon futhat a Pixel okostelefon Tensor Processing Core (TPU) egységén, csak úgy, ahogyan a Gemini Nano modellt a telefonon helyben futtatja.
A Gemma 3 legnagyobb előnye az AI modellek Ikrek családjával szemben, hogy mivel nyílt forrású, a fejlesztők csomagolhatják és kiszállíthatják azt a mobil alkalmazások és az asztali szoftverek egyedi követelményei szerint. Egy másik döntő előnye az, hogy a Gemma több mint 140 nyelvet támogat, és 35-ös az előre képzett csomag részeként jön.
És csakúgy, mint a legújabb Gemini 2.0 sorozatú modellek, a Gemma 3 is képes megérteni a szöveget, a képeket és a videókat. Dióhéjban ez multi-multimdal. A teljesítményoldalon a Gemma 3 állítólag meghaladja a többi népszerű nyílt forráskódú AI modelleket, mint például a DeepSeek V3, az érvelésre kész Openai O3-Mini és a Meta Llama-405B változata.
Sokoldalú és készen áll a telepítésre
Körülbelül a bemeneti tartományban a Gemma 3 olyan kontextusablakot kínál, amelynek értéke 128 000 token. Ez elég ahhoz, hogy egy teljes 200 oldalas könyvet lefedjenek, mint bemenet. Összehasonlításképpen: a Google Gemini 2.0 Flash Lite modell kontextusú ablaka millió token. Az AI modellekkel összefüggésben az átlagos angol nyelvű szó nagyjából megegyezik az 1,3 tokenekkel.
Gemma 3 A vizuális bemenet feldolgozása. Google
A Gemma 3 támogatja a funkcióhívást és a strukturált kimenetet is, ami lényegében azt jelenti, hogy kölcsönhatásba léphet a külső adatkészletekkel, és olyan feladatokat hajthat végre, mint egy automatizált szer. A legközelebbi analógia a Gemini lenne, és hogyan lehet elvégezni a munkát a különböző platformokon, például a Gmail vagy a Docs.
A Google legújabb nyílt forráskódú AI modelljei vagy helyben telepíthetők, vagy a vállalat felhőalapú platformjain, például a Vertex AI Suite-on keresztül. A Gemma 3 AI modellek már elérhetők a Google AI stúdióján, valamint harmadik fél tárolóként, mint például az arc, az Ollama és a Kaggle.
A Gemma 3 része az iparági trendnek, ahol a vállalatok nagy nyelvi modelleken dolgoznak (Ikrek, a Google esetében), és egyidejűleg kihúzzák a kis nyelvi modelleket (SLM) is. A Microsoft hasonló stratégiát követi a kis nyelvű modellek nyílt forrású PHI sorozatával.
A kis nyelvi modellek, mint például a Gemma és a PHI, rendkívül erőforrás -hatékonyságúak, ami ideális választást jelent az olyan eszközök futtatásához, mint az okostelefonok. Moroever, mivel alacsonyabb késleltetést kínálnak, különösen jól alkalmasak a mobil alkalmazásokhoz.