Stability AI, la compagnia dietro Stable Diffusion, ha annunciato il rilascio di StableLM, una suite di modelli linguistici open-source.
I modelli, per ora tutti in versione Alpha, sono addestrati su una versione arricchita del dataset di The Pile, contenente 800GB di dati specifici per l’addestramento dei modelli di linguaggio. È possibile testare le capacità del modello grazie a una demo gratuita su Hugging Face.
StableLM non è paragonabile a ChatGPT né per conoscenza né per ricchezza di linguaggio, ma non è questo l’obiettivo di Stability IA: l’azienda vuole rendere l’IA accessibile a tutti, supportare la ricerca e permettere agli sviluppatori di creare strumenti sempre più avanzati basati sui modelli open-source.
I modelli di StableLM sono in grado di intrattenere conversazioni su qualsiasi argomento, scrivere testi formali o creativi, come email, poesie o canzoni, e generare da snippet di codice a interi programmi in diversi linguaggi.
Gli sviluppatori di Stability AI assicurano che i modelli rispettano i principi di trasparenza e accessibilità della tecnologia, e che sono stati pensati per supportare gli utenti nelle loro attività senza sostituirli.
I modelli possono essere eseguiti su hardware d’uso comune e non sono legati a un vendor specifico; in questo modo, spiega Stability AI, tutta la community di ricercatori ed entusiasti della tecnologia può avere libero accesso alla potenza dei modelli.
StableLM è disponibile su GitHub nelle versioni con 3 e 7 miliardi di parametri, e l’azienda prevede di rilasciare a breve anche le versioni da 15 e 65 miliardi di parametri. Gli sviluppatori possono usare e modificare il modello sia per scopi di ricerca che commerciali.