- Beranda
- Artificial Intelligence
[Ask] - Best LLM Model for 16GB GPU
...
![salukaskus](https://s.kaskus.id/user/avatar/2023/07/10/default.png)
![Avatar border](https://s.kaskus.id/images/avatarborder/1.gif)
TS
salukaskus
[Ask] - Best LLM Model for 16GB GPU
Sesuai titlenya: sekarang sudah ada RTX 4060 Ti dengan 16GB VRAM. Nah, meski dia kurang bagus buat gaming, tapi 16GB VRAM itu harusnya bagus ya buat load model LLM.
Kalau untuk VRAM 16GB itu, bisa load model paling gede berapa ya? Apa bisa load model 7B atau bahkan 13B?
Kalau untuk VRAM 16GB itu, bisa load model paling gede berapa ya? Apa bisa load model 7B atau bahkan 13B?
0
7
0
![Guest](https://s.kaskus.id/user/avatar/default.png)
![Avatar border](https://s.kaskus.id/images/avatarborder/1.gif)
Komentar yang asik ya
Mari bergabung, dapatkan informasi dan teman baru!
![Artificial Intelligence](https://s.kaskus.id/r200x200/ficon/image-1739.png)
Artificial Intelligence
51Thread•65Anggota
![Guest](https://s.kaskus.id/user/avatar/default.png)
![Avatar border](https://s.kaskus.id/images/avatarborder/1.gif)
Komentar yang asik ya