Tether, Microsoft’un 1 bitlik BitNet mimarisi için geliştirilen çapraz platform LoRA ince ayar teknolojisini QVAC Fabric kapsamında duyurarak yapay zekâ model eğitimini daha hızlı, düşük maliyetli ve erişilebilir hale getiriyor.

Öne çıkanlar

BitNet tabanlı LoRA çerçevesi; bellek ve işlem maliyetlerini ciddi ölçüde azaltarak milyarlarca parametreli dil modellerinin dizüstü bilgisayarlar, tüketici GPU’ları ve akıllı telefonlar üzerinde eğitilip özelleştirilebilmesini mümkün kılıyor.

Çözüm; Intel, AMD ve Apple Silicon gibi farklı mimarilerde çalışıyor, verilerin cihaz üzerinde kalmasına imkân vererek buluta bağımlılığı ve hassas veri risklerini azaltıyor.

Gerçek dünya hızları ve verimlilik

Tether mühendislik ekibi, Adreno, Mali ve Apple Bionic GPU’lar dâhil mobil GPU’larda BitNet LoRA ince ayarının ilk başarılı gösterimlerinden birini sundu. 125 milyon parametreli BitNet modelleri, yaklaşık 18 bin tokenlik (300 belge) biyomedikal veri setiyle bir Samsung S25’in Adreno GPU’su üzerinde yaklaşık 10 dakikada ince ayar alabiliyor.

Aynı veri setiyle 1 milyar parametreli modelin ince ayarı Samsung S25’te 1 saat 18 dakika, iPhone 16’da ise 1 saat 45 dakika sürüyor. Ekip, cihaz sınırlarını zorlayarak iPhone 16’da 13 milyar parametreli modellere kadar ince ayar yapmayı da başardı.

Çerçeve, uç cihazlarda BitNet olmayan modellere kıyasla 2 kata kadar daha büyük modellere LoRA ile ince ayar yapılabildiğini gösteriyor. İnferans tarafında ise mobil GPU’larda CPU’ya kıyasla 2 ila 11 kata varan hızlanma elde ediliyor.

Bellek kullanımında da belirgin kazanımlar var: BitNet-1B TQ1_0 modeli, hem çıkarım hem de LoRA ince ayarda Gemma-3-1B 16 bit’e kıyasla yüzde 77,8’e, Qwen3-0.6B 16 bit’e kıyasla ise yüzde 65,6’ya varan VRAM tasarrufu sağlıyor.

Cihaz desteği ve gizlilik

QVAC Fabric, NVIDIA dışındaki donanımlarda da 1 bitlik büyük dil modelleri için LoRA ince ayarını mümkün kılarak desteği AMD, Intel, Apple Silicon ve mobil GPU’lara genişletiyor. Bu sayede özel donanıma ve bulut sağlayıcılarına bağımlılık azalırken, veriler cihaz üzerinde yerel olarak tutulabiliyor; federe öğrenme gibi yaklaşımlar daha erişilebilir hale geliyor.

CEO’dan mesaj

Zekâ, toplumun geleceğinde temel bir belirleyici faktör olacaktır. Toplumun istikrarını iyileştirme, bağ dokusu olarak hizmet etme veya azınlığı daha da güçlendirme potansiyeline sahiptir. Yapay zekânın geleceği, her yerdeki insanlar ve geliştiriciler için erişilebilir, kullanılabilir ve açık olmalıdır; yalnızca bir avuç bulut sağlayıcısının erişebileceği absürt miktarda kaynak gerektirmemelidir. Büyük dil modellerinin eğitimi merkezi altyapıya bağlı olduğunda inovasyon durgunlaşır, ekosistem kırılganlaşır ve toplumsal denge riske girer. Akıllı telefonlar dahil olmak üzere tüketici donanımlarında anlamlı büyük model eğitimini mümkün kılan Tether’in QVAC’ı, gelişmiş yapay zekânın herkes için merkeziyetsiz, kapsayıcı ve güçlendirici olabileceğini gösteriyor. Tether olarak, yapay zekânın herkes için, her yerde ve cihaz üzerinde yerel olarak erişilebilir olması için önümüzdeki dönemde de önemli kaynak ve yatırım ayırmayı sürdüreceğiz. Stabil Zekâ çağı yeni başladı.

Sonuç olarak Tether’in BitNet ve LoRA tabanlı yaklaşımı, büyük dil modellerinin eğitimini pahalı altyapılardan bağımsız hale getirerek geliştiriciler ve kurumlar için cihaz üzerinde, ölçeklenebilir ve ekonomik bir alternatif sunuyor.

Siyahtilki, iş dünyasının ilham kaynağı!
Cookie Cookie

Siyahtilki olarak, sitemizde deneyiminizi geliştirmek ve içerikleri ilgi alanlarınıza göre uyarlayabilmek için çerezleri kullanıyoruz. Tercihlerinizi dilediğiniz zaman “Çerez Ayarları” bölümünden güncelleyebilirsiniz. Çerezleri kabul etmek istemezseniz Reddet seçeneğini kullanabilirsiniz. Hangi verileri topladığımızı ve nasıl kullandığımızı öğrenebileceğiniz “Çerez Politikası” metnimize ulaşabilirsiniz.