GPT-2

GPT-2
Modifica el valor a Wikidata
Tipusmodel de llenguatge extens i transformadors generatius pre-entrenats Modifica el valor a Wikidata
Versió inicial14 febrer 2019 Modifica el valor a Wikidata
Versió estable
1558M (5 novembre 2019) Modifica el valor a Wikidata
Llicènciallicència MIT Modifica el valor a Wikidata
Equip
Desenvolupador(s)OpenAI Modifica el valor a Wikidata
Més informació
Lloc webopenai.com… (anglès) Modifica el valor a Wikidata


GPT-1 Modifica el valor a Wikidata
GPT-3 Modifica el valor a Wikidata
logo laboratori creador de GPT-2

GPT-2 (Generative Pre-trained Transformer 2) és un sistema que fa ús de la intel·ligència artificial per generar textos creada el febrer del 2019 per OpenAI, un laboratori de recerca impulsat per Elon Musk. Es tracta d'un sistema format per 1.5 bilions de paràmetres que generen text preveient paraula a paraula. D'aquesta manera, és capaç de traduir textos automàticament, respondre preguntes, resumir fragments de text... Aquest text que genera realment és extret d'unes 8 milions pàgines d'Internet, per la qual cosa compta amb un conjunt de dades d'uns 40GB de text per utilitzar.[1]

  1. «GPT-2» (en castellà), 23-06-2020. [Consulta: 10 octubre 2021].

From Wikipedia, the free encyclopedia · View on Wikipedia

Developed by Tubidy