mars-ai-local
v1.0.1
Published
AI lokal via Ollama untuk proyek Mars
Readme
Mars AI Local
Modul Node.js untuk menjalankan AI lokal menggunakan Ollama (llama3) tanpa kuota atau rate limit.
Cara Penggunaan
Install Ollama (sekali saja)
curl -fsSL https://ollama.com/install.sh | shJalankan model llama3
ollama run llama3Jalankan proyek
npm install node server.jsGunakan endpoint
http://localhost:3000/AliciaLocal?text=apa+itu+ai
Struktur Folder
mars-ai-local/
├── handlers/
│ └── ai-local.js
├── package.json
├── server.js
└── README.mdKelebihan
- 100% Gratis
- Tanpa API Key
- Tanpa rate limit
- Bisa offline
