Israëlische startup heeft een betaalbaar alternatief voor GPT-3 ontwikkeld


AI21 Labs, een Israëlische start-up, ontwikkelde het Jurassic-1 Jumbo-taalmodel, dat zijn concurrent GPT-3 overtrof in termen van aantal parameters en woordenschat.

Vandaag hebben we AI21 Studio gelanceerd, een platform waar je direct toegang hebt tot onze meest geavanceerde taalmodellen om je eigen applicaties te bouwen – inclusief het 178B parametrische model Jurassic-1 Jumbo. We kunnen niet wachten om te zien wat je hebt gemaakt https://t.co/NhCnF1Emcy

– AI21 Labs (@ AI21Labs) 11 augustus 2021

Het bedrijf zei dat de grootste versie van het model 178 miljard parameters bevat. Dit is 3 miljard meer dan GPT-3, maar duidelijk niet zo goed als Huawei’s Pangu-Alpha of Wudao 2.0.

Jurassic-1 kan 250.000 woordenschatelementen herkennen, inclusief uitdrukkingen, woorden en zinnen. De ontwikkelaars wezen erop dat dit vijf keer zoveel is als bij andere vergelijkbare systemen.

De Jurassic-1 Jumbo-vocabulaire was ook een van de eerste vocabulaires die “lange” elementen gebruikten (zoals het Empire State Building). Ontwikkelaars zeggen dat dit betekent dat het model rijkere semantische representaties van betekenisvolle concepten voor mensen kan bieden.

“Het verleggen van de grenzen van op taal gebaseerde kunstmatige intelligentie vereist meer dan de patroonherkenning die de huidige taalmodellen bieden”, zegt Yoav Shoham, CEO van AI21 Labs.

Het bedrijf verklaarde ook dat het hun doel is om het taalmodel voor iedereen beschikbaar te maken.

Het algoritme bevindt zich momenteel in de openbare bètatestfase en ontwikkelaars kunnen het gebruiken via API of interactieve webomgevingen.

Ter herinnering: in augustus lanceerde OpenAI een op GPT-3 gebaseerd Codex-platform voor automatische codering op basis van tekstprompts.

Begin augustus ontwikkelde Microsoft een MEB-taalmodel met 135 miljard parameters en integreerde dit in de Bing-zoekmachine.

In juni lanceerde het Beijing Institute of Artificial Intelligence het Wudao 2.0-model, dat tien keer betere prestaties levert dan GPT-3.

In januari kondigde Google het Switch Transformer-taalmodel aan, dat 1,6 biljoen parameters bevat.

Abonneer u op ForkLog-nieuws op Telegram: ForkLog AI-alle nieuws uit de AI-wereld

Een fout in de tekst gevonden? Selecteer het en druk op CTRL + ENTER

Informatiebron: 0x informatie samengesteld uit FORKLOG.Het copyright behoort toe aan de auteur Богдан Каминский, en mag niet worden gereproduceerd zonder toestemming

Total
0
Shares
Related Posts

IronFX lanceert een nieuwe handelsschool

De online handelsmakelaar van Cyprus, IronFX, heeft onthuld dat het zich voorbereidt op het openen van een uitgebreid online onderwijsgedeelte op zijn website om aan de groeiende vraag van zijn handelsgemeenschap te voldoen Het bedrijf verklaarde dat IronFX Trading Academy zich zal…
Lees verder

Cryptocurrency is ‘het nieuwe sexy’, blijkt uit onderzoek

Wil je meer geluk op apps en datingsites? Een manier om aantrekkelijker te zijn voor potentiële geliefden, is volgens een recente studie cryptovaluta te bezitten. Volgens een onderzoek gepubliceerd door CNBC en uitgevoerd door eToro, zei 33 procent van de Amerikaanse respondenten…
Lees verder