Yeni modelim GemmaTR-WikiQA-4bit, Türkçe dilinde eğitilmiş 27 milyar parametreli bir yapay zeka modeli! Model, kişisel bilgisayarlarda kullanılabilmesi için 4-bit quantize edildi ve 16GB GPU'ya sahip bilgisayarlarda iyi performans sergiliyor. Normalde bu modeli kullanabilmek için 60GB GPU gereksinimi vardı, ancak 4-bit quantize edilmesi sayesinde bu gereksinim düşürüldü. Eğitim için ise en az 80GB GPU göz önünde bulundurulmalı.

Bu model, 1,937,069 Türkçe Vikipedi soru-cevap verisinden 1.7 epoch boyunca eğitildi ve gelişmeye devam ediyor. Aşağıdaki linklerden modelin detaylarına erişebilirsiniz:

https://huggingface.co/cenkersisman/GemmaTR-WikiQA-4bit-GGUF
https://ollama.com/cenker/GemmaTR-WikiQA-4bit
Ayrıca, Türkçe dilinde bilinen diğer açık kaynak modelleri de göz önünde bulundurursak:

YTU: ytu-ce-cosmos/Turkish-Llama-8b-Instruct-v0.1 – 8 milyar parametre
Boğaziçi Üniversitesi: boun-tabi-LMG/TURNA– 1.14 milyar parametre
Türkcell: TURKCELL/Turkcell-LLM-7b-v1 – 7 milyar parametre
Trendyol: Trendyol/Trendyol-LLM-7b-chat-v1.0 – 7 milyar parametre

Amacım GemmaTR-WikiQA-4bit ile Türkçe NLP dünyasına önemli bir katkı sağlamak! Devamı geliyor.

cenkersisman/GemmaTR-WikiQA-4bit-GGUF · Hugging Face

We’re on a journey to advance and democratize artificial intelligence through open source and open science.
BeğenFavori PaylaşYorum yap