Cara Instal Ollama Menggunakan RX 6600 di Windows
Apa itu Ollama
Ollama adalah program open-source untuk menjalankan models untuk mengenali dan menghasilkan teks, serta memproses bahasa. Ollama dapat menjadi alternatif dari Copilot yang dibandrol $10/bulan untuk penggunaan individu.
Secara official Ollama memberikan support untuk beberapa kartu grafis AMD pada tanggal 14 Maret 2024, termasuk Radeon RX 6000 series dimulai dari RX 6800. Ollama now supports AMD graphics cards
Untuk seri lain seperti RX 6750 XT, RX 6700 XT, RX 6700, RX 6650 XT, RX 6600 XT, RX 6600, dapat menggunakan hasil fork Ollama yang dikhususkan untuk support lebih pada AMD. Windows-supported GPUs
AI Model
Per tanggal artikel ini dibuat, AI Model miliki google yaitu CodeGemma terbilang cukup baru, artikelnya merilis model 2b dan 7b pada tanggal 9 April di Hugging Face. CodeGemma - an official Google release for code LLMs
Untuk spesifikasi penggunaan, menjalankan model 7B dibutuhkan setidaknya 8GB RAM tersedia, 16GB untuk menjalankan model 13B, dan 32GB untuk model 33B. Olla GitHub
Download
- AMD HIP SDK untuk Windows
Per tanggal artikel ini dibuat: ollama-for-amd tidak mendukung HIP SDK 6.1.2. Dukungan akan ditambahkan jika ada kecepatan menguntungkan yang signifikan.
- ROCmLibs
- ollama-for-amd
Pembaruan tidak dilakukan lewat program, melainkan lewat repositori secara manual.
- CodeGemma
Download menggunakan CLI Ollama
- Continue untuk VSCode
Instalasi
-
Instal HIP SDK
Biarkan checkbox sesuai bawaan dan lanjutkan instalasi.
-
Patch rocBLAS dengan ROCmLibs
- Buka folder
C:\Program Files\AMD\ROCm\5.7\bin - Backup file
rocblas.dlldan folderlibraryyang ada di dalam folderrocblas - Ganti dengan
rocblas.dlldan folderlibrarymilik ROCmLibs
- Buka folder
-
Install ollama-for-amd
-
Pasang environtment path Ollama di Windows
Edit variable Path, buat baru untuk path Ollama (Contoh:
C:\Users\Budi\AppData\Local\Programs\Ollama) -
Jalankan Ollama menggunakan CLI
ollama serve
ollama run codegemma -
Instal dan setup ekstensi Continue di VSCode
- Buka sidebar Continue di vertical tab VSCode
- Buka pengaturan, pastikan ada provider ollama dengan model yang sudah dijalankan
"models": [
...
{
"title": "CodeGemma",
"provider": "ollama",
"model": "codegemma"
}
]
time=2024-08-26T06:59:04.379+07:00 level=INFO source=types.go:105 msg="inference compute" id=0 library=rocm compute=gfx1032 driver=5.7 name="AMD Radeon RX 6600"
Jika CLI Ollama menampilkan teks seperti di atas artinya RX 6600 sudah bisa menjalankan Ollama secara unofficial.
Related Posts
Cara Instal macOS Catalina di Windows dengan VMware
Prasyarat# Windows 10/11 VMware Workstation Pro/Player 15 VMware Tools untuk macOS Guest macOS .vmdk (Virtual Machine Disk) Persyaratan# VMware macOS Unlocker Instalasi macOS Unlocker# Unduh rilis mut...
Belajar Android Hacking dengan Metasploit di Tahun 2024
Disclaimer# Di artikel ini saya menjelaskan langkah-langkah untuk membuat payload android menggunakan Metasploit sebagai metode peretasan atas dasar pembelajaran untuk menambah wawasan dan mencegah te...