Bunlar onlar mı ? xx50 ve xx60 serisi performans görebilecek miyiz artık harici ekran kartsız ? Fanları hızlı döndürmeden kullanabilecek miyiz artık bu dahili gpu ları ?
@boakoms Bundaki ai max 395+ ise ki öyle görünüyor zaten, onlardaki gpu baya iyi. Radeon 8060s var, bunun da grafik gücü mobil kısımdaki 4060 4070 arası birşey. Özellikle de yeni fsr 4 ile birlikte donanımsal destekte gelince fsr çağ atladı.
Bu sistemlerin bence en büyük olayı da quan channel sistem belleği ve de frekans olarak çok yüksekler. Yani bir grafik ddr kadar iyi sayılırlar. Başka bir artısı da sistem ile gpu aynı belleği paylaşıyor dolayısıyla sistem için süper bir bellek hızları var birde gpu belleğini istediğiniz gibi atayabiliyorsunuz. İsterseniz sistem belleğiniz 64 ise gpu'a özel 32 gb vram verilebiliyor. 128 gblık bazı özel cihazlarda var belki 64 gb dahi ayrılabiliyordur ona bakmak lazım bu tabi modelleme ve yapay zeka işinde süper birşey. E tabi birde bu cpular zen 5 mimarisi ama zen 5 plus demek daha doğru olur çünkü zen 5'e göre artıları da vardı. Hani mobil tarafta notebooklar taşınabilir cihazlar için bu 395+ özellikle baya OP bir işlemci denebilir. Yanılmıyorsam masaüstünde i7 14. nesilden işlem gücü olarak daha iyi olması lazım. Birde tabi Aİ muhabbeti de var. Dahili ai'a özel coreları da var. Aslında bunlar özelleştirilebilir olanları işte ps4 ve xbox one serisinden beri kullanılıyor. AMD özellikle o kadar yıldan sonra adam gibi bir apu sistemi yapmamıştı. Her halde çok ses çıktı laf edildi adamlar böyle birşey yaptı. @loop Bence bu önümüzdeki yıllarda kesin olacak birşey. Çünkü böyle harici gpu işi ekstra yer kaplaması soğutma sıkıntıları derken gerek kalmıyor. Bunda tek çip var soğutması ona göre pcb de yeri ona göre vs. e birde nvidia'a da dikkat ederseniz masaüstü bu RTX grafik kartı olayını da biraz baştan savma yapıyorlar. Özellikle bu rtx 3000'den sonra bir dlss atağı geldi ama kas güçleri o kadar artmadı. Kar marjları da eskisi gibi değil artık oyunculara sattıkları gpu birimleri ile yapay zeka sunucu tarafı korkunç bir şekilde uçurum olmuş. Bir haber vardı nvidia ana geliri yüzde 80-85 sunucu ve yapay zeka mıymış neymiş sadece, yüzde 15'i gpu imiş. Tabi yalan da olabilir bilmiyoruz. 😀
Test edecekseniz umarım oyun performansına bakıp geçmezsiniz. Mutlaka bir yapay zeka senaryosu olmalı bu testlerde, LLM'ler de dahil olacak şekilde. Bu tarz bileşik bellekli dahili GPU sunan işlemciler çok büyük bir fiyat avantajı sunuyor yapay zeka kullanımları için. Zamanında bir Avrupa Birliği projesi için yapay zeka sunucusu kurmaya kalkıp 1.5 milyon liraları sadece LLM çalıştıracak GPU için istediklerinde, aynı işi bu cihaza çok daha uygun fiyatla yaptırabileceğini görmüştüm ve heyecanla çıkmasını bekledim bu cihazların piyasaya.
@leventp Zaten güzelliği orada, bu nedenle AI senaryosu görmeyi bekledim. Bildiğimiz bilgisayar ile normalde çok daha yüksek maliyeti olan işleri yapabiliyorsunuz. Al Max+ 395 var büyük ihtimalle içinde, çok fazla bellek GPU için ayrılabiliyor, bant genişliği çok yüksek değil ama normalde ayrı GPU belleğine sığmadığı için çalıştırılamayan modelleri çok rahat çalıştırabiliyor bu sayede. Oyun testi yapıp geçmenin hiçbir anlamı yok su alet özelinde, bilgisayar kültürü anlatan TS, böyle özel bir cihaz için şu oyunda 50 fps, bu oyunda 150 fps veriyor deyip geçmemeli, yazık olur.
@leventp offline çeviri yapabilir mi mesela deepseek in buna uyan bir versiyonuyla ne yapabilir. Benchmark değil de gerçek hayat testleri izlemek benim TS den beklentim. Her gpunun cpunun benchmarkları zaten çok kapsamlı karşılaştırmalı yerlere düşüyor; direkt benhmark sitelerinde de gözlemlenebiliyor.
YZ ile bugün insanlar ne yapıyor belli, bunun ofline gücü ile ne yapılabilir in deneyi keyifli olurdu. 100 sayfalık bir yabancı kitabı hangi kalitede ne kadar sürede çevirebilecek gibi basit ve keyifli testler...
@leventp @loop un da dediği gibi bu cihazın lokal gücü ile ne yapılabilir denemeleri de çok keyifli olur videoda. Çok basite indirgenmiş araçlarla artık tek tıkla bir modeli lokalde çalıştırmak mümkün lmstudio.ai yada anythingllm.com gibi. Ayrıca bu araçlar pek çok çıktı da sunuyor, bir donanımın AI performansı sabit biçimde aynı modeller üzerinde saniyede kaç token çıktı verebildiğine göre ölçülüyor, sadece --verbose komutunu eklemek bile yeterli açıkçası ollama kullanırken. (ollama.com)
Ollama Benchmark şeklinde bir arama yaparsanız da pek çok hazır benchmark aracına da ulaşabilirsiniz, genelde github üzerinden yayınlanıyor bu tarz araçlar çalıştırmaları biraz uğraştırıcı ama neticede AI performansına dair bilgileri sabit değişmez bir yöntemle sunacaktır. Elinizdeki cihaz çok yeni sayılır o nedenle kesin şu tool çalışır şu çalışmaz diyemiyorum alıp kurcalamam lazım öncesinde, bu nedenle kesin bir senaryo kuramam benchmark kısmı için ama lmstudio yada anythingllm üzerinden çalıştırıp ürettiği çıktının hızı görülebilir.
@mrx Standartlaşmaya başlamış AI benchmarklar dolu piyasada, elbette yapılabilir de, ama pratikte local modellerin nasıl çalışacağını merak ediyorsan o iş baştan yaş çünkü locallerin hepsi CUDA kullanıyor. Maalesef AI konusunda AMD desteği yaygın değil, o yüzden VRAM'i fazla diye, veya lanse edilen TOPS gücüne ve benchmark'taki güce bakıp "Nvidia GPU'dan daha ucuza gelir" şeklinde yaklaşmak doğru olmaz. Çok arka kapılardan dolanıp, desteği olmayan şeyleri aşıp bazı işlerde AMD kullanabilir misin elbette kullanırsın ama hem çok uğraştırıcı hem de verim o kadar düşüyor ki anlamsız kalıyor. O yüzden göreceğin benchmark'lar seni yanıltabilir, gerçek hayatta karşılığı yok. Şu an maalesef ki local AI çalıştırmak isteyenin Nvidia'dan başka gideceği kapı yok. Bu Ryzen AI neye yarar ama şuna yarar, Microsoft'un Windows'a gömmeye başladığı AI'larda işe yarar. Ama amacın github'dan image generation modelleri, llm modelleri indirip kurmaksa o konuda pek bir işine yaramaz maalesef.
Not 1: AMD geçenlerdeki bir sunumunda CUDA'ya karşılık olarak bir alternatif sistem hazırladığını gösterdi ancak bunun pratikte bir karşılığını görmedik çünkü çıkan local modeller hala sadece CUDA destekli, henüz adapte olmadı hiçbir geliştirici AMD'ye. 1-2 senesi var en azından bu işin oturması için eğer gerçekçi olmak gerekirse.
Not 2: Intel de geçenlerde sırf AI için yüksek VRAM'li kartlarını duyurdu ve çok heyecan yarattı çünkü tam da AI'ın gerektirdiği şekilde düşük kart gücü/yüksek VRAM/ucuz fiyat kombinasyonu vardı ama orada da bir hareket görmedik pratikte. Onun da en az 1 senesi var.
@protego “Lokal Modeller CUDA kullanıyor” ifadesi biraz yanlış anlaşılmaya açık olabilir. Aslında modeller doğrudan bir hesaplama yöntemine bağlı değil. Eğer modellerden kasıt ağırlık dosyalarıysa, bunlar CPU üzerinde bile çalıştırılabilir. Pek çok model zaten AMD ekran kartları üzerinde de çalışabiliyor; biz de çalıştığım yerde AMD tabanlı sunucularımızda farklı modelleri başarıyla çalıştırıyoruz. CUDA, GPU üzerinde hesaplama yapmayı kolaylaştıran bir API (hesaplama arabirimi) ama bu, GPU ile hesaplama yapmanın tek yolu olduğu anlamına gelmiyor. CUDA yalnızca Nvidia ekran kartlarına özgü fakat ROCm gibi alternatifler sayesinde AMD kartlarla da GPU hızlandırmalı işlemler yapılabiliyor.
Ben çalıştığım kurumda, yapay zeka projelerinin eğitim, test ve dağıtım süreçlerini kapsayan MLOps altyapısını kurarken; veri işleme süreçlerinin otomasyonu, GPU destekli sanal sunucuların hazırlanması, modellerin eğitimi, versiyonlanması ve API üzerinden servis edilmesi gibi işlerde sadece CUDA kullanmak gibi bir zorunluluğumuz olmadı. Yani "yalnızca Nvidia CUDA ile yapılır" gibi bir durum söz konusu değil local LLM'ler de Ryzen AI üzerinde çalışıyor şu an.
@protego Bu arada dediğiniz doğru yaklaşık bi 8-10 ay kadar önce yazdığınız gibiydi durum ama şu an pek çok hazır tool AMD üzerinde gayet kolay şekilde kullanılıyor ev ortamında da.
@mrx ROCm altyapısının geliştirilmesinden bahsediyorum ben de zaten. AMD geçenlerde bunu duyurdu ancak sonucunu almak 1 yıl sürecek gibi en azından.
Evet sen modeli kendin hazırlıyorsan elbette istediğin her desteği sunabilirsin ve her altyapıda çalıştırabilirsin o apayrı mesele, ben son kullanıcı açısından söylüyorum(açıkçası senin de son kullanıcı açısından baktığını varsayarak söyledim), AI yalnızca CUDA ile yapılır demiyorum, şu anki yayımlanan local modellerin tamamına yakını CUDA zorunluluğu tutuyor diyorum. Senin açından doğru elbette, son kullanıcı açısından iş farklı. Yoksa elbette AMD'nin de AI GPU'ları var AMD ile AI geliştirilmez diye bir şey yok. Ama geliştirmiyorlar 😀
@mrx Ben github'da ve huggingface'te yeni yayımlanan modelleri sürekli takip ediyorum, hala hepsinde CUDA zorunluluğu var hatta direkt "yalnızca Nvidia GPU'lar" diye yazıyorlar. Bunları AMD'de çalıştırmak için benim bilmediğim verimli bir arka kapı çıktıysa söyle hocam gönül rahatlığıyla 9070XT kart alayım 😀
Muhtemelen GMKtec EVO-X2 testi geliyor. Son dönemde en çok merak ettiğim işlemci ve ürün bu olabilir. Ancak bu platform bana biraz pahalı geliyor; hâlâ mantıklı fiyatlara inmediğini düşünüyorum.
AI, yeni müşteri yolma bahanesi (işe yarayıp, yaramamasından bağımsız; çünkü herkes kullanmayacak), o yüzden uzun süre fiyat kırmayacaklar düşüncesindeyim (yüksek rekabet seviyesine rağmen).
Abi bu bilgisayar (APU+NPU) kaç TOPS? Oyuna etkisini de merak ediyorum tabii ama yapay zekâ ile neler yapabilir oyun dışında? Örneğin DeepSeek ile yerelde bir şeyler denemek uygun olur mu?
Vay be mobile x86 mimarisinde grafik birimli en iyi işlemci gelmiş demek. Rakipte bu kadar güçlü bir işlemci yok.
Bunlar onlar mı ? xx50 ve xx60 serisi performans görebilecek miyiz artık harici ekran kartsız ? Fanları hızlı döndürmeden kullanabilecek miyiz artık bu dahili gpu ları ?
artık hep bunlara geçilse ya harici gpu olayı 10 yıla kalkar notebooklarda bu gidişle.
@boakoms Bundaki ai max 395+ ise ki öyle görünüyor zaten, onlardaki gpu baya iyi. Radeon 8060s var, bunun da grafik gücü mobil kısımdaki 4060 4070 arası birşey. Özellikle de yeni fsr 4 ile birlikte donanımsal destekte gelince fsr çağ atladı.
Bu sistemlerin bence en büyük olayı da quan channel sistem belleği ve de frekans olarak çok yüksekler. Yani bir grafik ddr kadar iyi sayılırlar. Başka bir artısı da sistem ile gpu aynı belleği paylaşıyor dolayısıyla sistem için süper bir bellek hızları var birde gpu belleğini istediğiniz gibi atayabiliyorsunuz. İsterseniz sistem belleğiniz 64 ise gpu'a özel 32 gb vram verilebiliyor. 128 gblık bazı özel cihazlarda var belki 64 gb dahi ayrılabiliyordur ona bakmak lazım bu tabi modelleme ve yapay zeka işinde süper birşey. E tabi birde bu cpular zen 5 mimarisi ama zen 5 plus demek daha doğru olur çünkü zen 5'e göre artıları da vardı. Hani mobil tarafta notebooklar taşınabilir cihazlar için bu 395+ özellikle baya OP bir işlemci denebilir. Yanılmıyorsam masaüstünde i7 14. nesilden işlem gücü olarak daha iyi olması lazım. Birde tabi Aİ muhabbeti de var. Dahili ai'a özel coreları da var. Aslında bunlar özelleştirilebilir olanları işte ps4 ve xbox one serisinden beri kullanılıyor. AMD özellikle o kadar yıldan sonra adam gibi bir apu sistemi yapmamıştı. Her halde çok ses çıktı laf edildi adamlar böyle birşey yaptı. @loop Bence bu önümüzdeki yıllarda kesin olacak birşey. Çünkü böyle harici gpu işi ekstra yer kaplaması soğutma sıkıntıları derken gerek kalmıyor. Bunda tek çip var soğutması ona göre pcb de yeri ona göre vs. e birde nvidia'a da dikkat ederseniz masaüstü bu RTX grafik kartı olayını da biraz baştan savma yapıyorlar. Özellikle bu rtx 3000'den sonra bir dlss atağı geldi ama kas güçleri o kadar artmadı. Kar marjları da eskisi gibi değil artık oyunculara sattıkları gpu birimleri ile yapay zeka sunucu tarafı korkunç bir şekilde uçurum olmuş. Bir haber vardı nvidia ana geliri yüzde 80-85 sunucu ve yapay zeka mıymış neymiş sadece, yüzde 15'i gpu imiş. Tabi yalan da olabilir bilmiyoruz. 😀
Heyecanla bekliyoruz, sonuçları; AI kısmı hariç, ben pek ilgilenmiyorum.
Test edecekseniz umarım oyun performansına bakıp geçmezsiniz. Mutlaka bir yapay zeka senaryosu olmalı bu testlerde, LLM'ler de dahil olacak şekilde. Bu tarz bileşik bellekli dahili GPU sunan işlemciler çok büyük bir fiyat avantajı sunuyor yapay zeka kullanımları için. Zamanında bir Avrupa Birliği projesi için yapay zeka sunucusu kurmaya kalkıp 1.5 milyon liraları sadece LLM çalıştıracak GPU için istediklerinde, aynı işi bu cihaza çok daha uygun fiyatla yaptırabileceğini görmüştüm ve heyecanla çıkmasını bekledim bu cihazların piyasaya.
Oyun performansına bakıp geçeceğim açıkçası. Bu, NVIDIA Digits gibi bir şey değil, bildiğimiz bilgisayar.
@leventp Zaten güzelliği orada, bu nedenle AI senaryosu görmeyi bekledim. Bildiğimiz bilgisayar ile normalde çok daha yüksek maliyeti olan işleri yapabiliyorsunuz. Al Max+ 395 var büyük ihtimalle içinde, çok fazla bellek GPU için ayrılabiliyor, bant genişliği çok yüksek değil ama normalde ayrı GPU belleğine sığmadığı için çalıştırılamayan modelleri çok rahat çalıştırabiliyor bu sayede. Oyun testi yapıp geçmenin hiçbir anlamı yok su alet özelinde, bilgisayar kültürü anlatan TS, böyle özel bir cihaz için şu oyunda 50 fps, bu oyunda 150 fps veriyor deyip geçmemeli, yazık olur.
@mrx Bana tekrar edilebilir bir AI benchmark senaryosu kurabilirseniz, denerim. Ancak sonuçlar tekrar edilebilir olmalı.
@leventp offline çeviri yapabilir mi mesela deepseek in buna uyan bir versiyonuyla ne yapabilir. Benchmark değil de gerçek hayat testleri izlemek benim TS den beklentim. Her gpunun cpunun benchmarkları zaten çok kapsamlı karşılaştırmalı yerlere düşüyor; direkt benhmark sitelerinde de gözlemlenebiliyor.
YZ ile bugün insanlar ne yapıyor belli, bunun ofline gücü ile ne yapılabilir in deneyi keyifli olurdu. 100 sayfalık bir yabancı kitabı hangi kalitede ne kadar sürede çevirebilecek gibi basit ve keyifli testler...
@leventp @loop un da dediği gibi bu cihazın lokal gücü ile ne yapılabilir denemeleri de çok keyifli olur videoda. Çok basite indirgenmiş araçlarla artık tek tıkla bir modeli lokalde çalıştırmak mümkün lmstudio.ai yada anythingllm.com gibi. Ayrıca bu araçlar pek çok çıktı da sunuyor, bir donanımın AI performansı sabit biçimde aynı modeller üzerinde saniyede kaç token çıktı verebildiğine göre ölçülüyor, sadece --verbose komutunu eklemek bile yeterli açıkçası ollama kullanırken. (ollama.com)
Ollama Benchmark şeklinde bir arama yaparsanız da pek çok hazır benchmark aracına da ulaşabilirsiniz, genelde github üzerinden yayınlanıyor bu tarz araçlar çalıştırmaları biraz uğraştırıcı ama neticede AI performansına dair bilgileri sabit değişmez bir yöntemle sunacaktır. Elinizdeki cihaz çok yeni sayılır o nedenle kesin şu tool çalışır şu çalışmaz diyemiyorum alıp kurcalamam lazım öncesinde, bu nedenle kesin bir senaryo kuramam benchmark kısmı için ama lmstudio yada anythingllm üzerinden çalıştırıp ürettiği çıktının hızı görülebilir.
@mrx Standartlaşmaya başlamış AI benchmarklar dolu piyasada, elbette yapılabilir de, ama pratikte local modellerin nasıl çalışacağını merak ediyorsan o iş baştan yaş çünkü locallerin hepsi CUDA kullanıyor. Maalesef AI konusunda AMD desteği yaygın değil, o yüzden VRAM'i fazla diye, veya lanse edilen TOPS gücüne ve benchmark'taki güce bakıp "Nvidia GPU'dan daha ucuza gelir" şeklinde yaklaşmak doğru olmaz. Çok arka kapılardan dolanıp, desteği olmayan şeyleri aşıp bazı işlerde AMD kullanabilir misin elbette kullanırsın ama hem çok uğraştırıcı hem de verim o kadar düşüyor ki anlamsız kalıyor. O yüzden göreceğin benchmark'lar seni yanıltabilir, gerçek hayatta karşılığı yok. Şu an maalesef ki local AI çalıştırmak isteyenin Nvidia'dan başka gideceği kapı yok. Bu Ryzen AI neye yarar ama şuna yarar, Microsoft'un Windows'a gömmeye başladığı AI'larda işe yarar. Ama amacın github'dan image generation modelleri, llm modelleri indirip kurmaksa o konuda pek bir işine yaramaz maalesef.
Not 1: AMD geçenlerdeki bir sunumunda CUDA'ya karşılık olarak bir alternatif sistem hazırladığını gösterdi ancak bunun pratikte bir karşılığını görmedik çünkü çıkan local modeller hala sadece CUDA destekli, henüz adapte olmadı hiçbir geliştirici AMD'ye. 1-2 senesi var en azından bu işin oturması için eğer gerçekçi olmak gerekirse.
Not 2: Intel de geçenlerde sırf AI için yüksek VRAM'li kartlarını duyurdu ve çok heyecan yarattı çünkü tam da AI'ın gerektirdiği şekilde düşük kart gücü/yüksek VRAM/ucuz fiyat kombinasyonu vardı ama orada da bir hareket görmedik pratikte. Onun da en az 1 senesi var.
@protego “Lokal Modeller CUDA kullanıyor” ifadesi biraz yanlış anlaşılmaya açık olabilir. Aslında modeller doğrudan bir hesaplama yöntemine bağlı değil. Eğer modellerden kasıt ağırlık dosyalarıysa, bunlar CPU üzerinde bile çalıştırılabilir. Pek çok model zaten AMD ekran kartları üzerinde de çalışabiliyor; biz de çalıştığım yerde AMD tabanlı sunucularımızda farklı modelleri başarıyla çalıştırıyoruz. CUDA, GPU üzerinde hesaplama yapmayı kolaylaştıran bir API (hesaplama arabirimi) ama bu, GPU ile hesaplama yapmanın tek yolu olduğu anlamına gelmiyor. CUDA yalnızca Nvidia ekran kartlarına özgü fakat ROCm gibi alternatifler sayesinde AMD kartlarla da GPU hızlandırmalı işlemler yapılabiliyor.
Ben çalıştığım kurumda, yapay zeka projelerinin eğitim, test ve dağıtım süreçlerini kapsayan MLOps altyapısını kurarken; veri işleme süreçlerinin otomasyonu, GPU destekli sanal sunucuların hazırlanması, modellerin eğitimi, versiyonlanması ve API üzerinden servis edilmesi gibi işlerde sadece CUDA kullanmak gibi bir zorunluluğumuz olmadı. Yani "yalnızca Nvidia CUDA ile yapılır" gibi bir durum söz konusu değil local LLM'ler de Ryzen AI üzerinde çalışıyor şu an.
@protego Bu arada dediğiniz doğru yaklaşık bi 8-10 ay kadar önce yazdığınız gibiydi durum ama şu an pek çok hazır tool AMD üzerinde gayet kolay şekilde kullanılıyor ev ortamında da.
@mrx ROCm altyapısının geliştirilmesinden bahsediyorum ben de zaten. AMD geçenlerde bunu duyurdu ancak sonucunu almak 1 yıl sürecek gibi en azından.
Evet sen modeli kendin hazırlıyorsan elbette istediğin her desteği sunabilirsin ve her altyapıda çalıştırabilirsin o apayrı mesele, ben son kullanıcı açısından söylüyorum(açıkçası senin de son kullanıcı açısından baktığını varsayarak söyledim), AI yalnızca CUDA ile yapılır demiyorum, şu anki yayımlanan local modellerin tamamına yakını CUDA zorunluluğu tutuyor diyorum. Senin açından doğru elbette, son kullanıcı açısından iş farklı. Yoksa elbette AMD'nin de AI GPU'ları var AMD ile AI geliştirilmez diye bir şey yok. Ama geliştirmiyorlar 😀
@mrx Ben github'da ve huggingface'te yeni yayımlanan modelleri sürekli takip ediyorum, hala hepsinde CUDA zorunluluğu var hatta direkt "yalnızca Nvidia GPU'lar" diye yazıyorlar. Bunları AMD'de çalıştırmak için benim bilmediğim verimli bir arka kapı çıktıysa söyle hocam gönül rahatlığıyla 9070XT kart alayım 😀
@protego Sanırım siz image generation kısmından bahsediyorsunuz o konu ile ilgili bilgim yok açıkçası, LLM kısmı ile daha çok ilgileniyorum ben.
Muhtemelen GMKtec EVO-X2 testi geliyor. Son dönemde en çok merak ettiğim işlemci ve ürün bu olabilir. Ancak bu platform bana biraz pahalı geliyor; hâlâ mantıklı fiyatlara inmediğini düşünüyorum.
AI, yeni müşteri yolma bahanesi (işe yarayıp, yaramamasından bağımsız; çünkü herkes kullanmayacak), o yüzden uzun süre fiyat kırmayacaklar düşüncesindeyim (yüksek rekabet seviyesine rağmen).
Ha, AI'siz versiyonları çıkarsa bilmem ki bana kalsa çıkartılması lazım. Her yere girmek zorunda değil, girmemeli de.
Hadi bakalım demet akalın...
Levent işlemcisine kavuşmuş bakalım..
CPU içinden geç göbek atalım.
Bizimlede paylaş sonucu abi hava satalım.
🙂 🙂 ben feronun şarkısını LP ye uyarladım.
2-3 gün kalıp geri gidecek bir sistem.
@leventp 🙂 Olaaaaaaa harbiden üzüldüm şimdi.
Abi bu bilgisayar (APU+NPU) kaç TOPS? Oyuna etkisini de merak ediyorum tabii ama yapay zekâ ile neler yapabilir oyun dışında? Örneğin DeepSeek ile yerelde bir şeyler denemek uygun olur mu?