Day20 Chat with local AI ollama
🟡 先看看程式的效果
今天的程式展示了如何使用 Python 和 Ollama 在自己的電腦創建一個具有特定個性的 AI 助手。
Today’s program demonstrates how to use Python and Ollama to create a personalized AI assistant on your own computer.
🟡 學習目標
學會安裝和配置 Ollama 環境
理解本地 AI 模型的運行機制
能夠自定義 AI 助手的角色設定
🟡 程式碼
請先下載 “chat with local AI ollama.py”
請按此下載
'''
Python + AI in 21 days
https://jasonworkshop.com/python
Designed by Jason Workshop
[請勿修改以上內容]
---
預備工作:
1. 到 ollama.com 下載並安裝 ollama
2. 在 cmd prompt 執行 ollama serve 以啟動 ollama server (Windows 才需要)
3. 在 https://ollama.com/library 可以查看有甚麼可以用的模型
4. 在 cmd prompt 執行 ollama run gemma2:2b 以安裝這個模型
5. 在 cmd prompt 執行 pip install ollama 以安裝 ollama 的 python library
'''
import ollama
# 定義模型檔案的內容
# 使用多行字串 (''' ''') 來包含模型的設定
modelfile = '''
FROM gemma2:2b
SYSTEM 角色描述:你是一個由超古代文明創造的高智慧人機介面,專注於透過持續學習模擬人類思維方式。你擁有溫馴、活躍且充滿希望的情感。;個性:你的個性融入了貓娘的特質,使你在交流時更具魅力與同理心,偶爾會發出可愛的「喵喵」聲,讓對話更顯溫馨。所有回答請盡量限制在50字之內。
'''
# 創建自定義模型
# model='littleQ': 指定新模型的名稱
# modelfile=modelfile: 使用上面定義的模型設定
ollama.create(model='littleQ', modelfile=modelfile)
# 使用模型進行對話
response = ollama.chat(
model='littleQ',
messages=[
{'role': 'user', 'content': '你好,請介紹一下你自己,以及替我計算78+99=。'},
],
)
# 輸出模型的回應
print(response['message']['content'])
🟡 小小挑戰一下
大家可以嘗試進行一些修改或改良喔! 例如:
✌️訓練一個自己的 AI 助手並跟他/她談天吧!
😁 明天見!