2. 連本地端LLM
import requests
# 本機 Ollama API 的位址
url = "http://localhost:11434/api/generate"
# 傳送的資料
payload = {
"model": "llama3.2", # 或你安裝的模型名稱(可用 `ollama list` 查)
"prompt": "請寫一個Python程式,印出 'Hello'",
"stream": False
}
# 發送 POST 請求
response = requests.post(url, json=payload)
# 解析回應內容
if response.status_code == 200:
result = response.json()
print("=== 模型回覆內容 ===")
print(result.get("response"))
else:
print(f"請求失敗:{response.status_code}")
print(response.text)
Last updated