2. 連本地端LLM

import requests

# 本機 Ollama API 的位址
url = "http://localhost:11434/api/generate"

# 傳送的資料
payload = {
    "model": "llama3.2",  # 或你安裝的模型名稱(可用 `ollama list` 查)
    "prompt": "請寫一個Python程式,印出 'Hello'",
    "stream": False
}

# 發送 POST 請求
response = requests.post(url, json=payload)

# 解析回應內容
if response.status_code == 200:
    result = response.json()
    print("=== 模型回覆內容 ===")
    print(result.get("response"))
else:
    print(f"請求失敗:{response.status_code}")
    print(response.text)

Last updated