現在在Google Chrome也有內建AI模型了,但目前需要手動開啟,這個模型是Gemini Nano等級的,大概需要1.4GB的空間(解壓後1.74GB)

使用這個的好處是這個AI模型是本地運行的,所以速度會快很多,但模型參數比較小,推理能力比較不好。不過用來做一些簡單的快速翻譯應該是不錯

Google Chrome AI啟用方式:

1.下載Chrome Dev最新版

https://google.com/chrome/dev/

image.png

在網址列輸入:

chrome://flags/#optimization-guide-on-device-model

設為Enable BypassPerfRequirement (先不要Relaunch)

image.png

在網址列

chrome://flags/#prompt-api-for-gemini-nano

Prompt API for Gemini Nano 設為 Enabled

image.png

在chrome://components/

查看Optimization Guide On Device Model ,等元件下載好,就能用了


image.png

下載好以後,到console輸入 window.model.createTextSession() ,假如沒有報錯,表示能正常使用。

測試使用範例

在Console輸入(之後就能在js中使用,目前只能在dev版本的Chrome中使用,過陣子應該就通用了)

//對談
const ai= await window.model.createTextSession()
let result =await ai.prompt("你好啊,我叫Aidec,你叫甚麼?介紹你自己")
console.log(result)

//測試翻譯
const ai= await window.model.createTextSession()
let result =await ai.prompt("翻譯成中文:Optimization Guide On Device Model")
console.log(result)
//輸出: 关于设备模型的优化指南


//測試翻譯
const ai= await window.model.createTextSession()
let result =await ai.prompt("翻譯成繁體中文:Optimization Guide On Device Model")
console.log(result)
//輸出: 裝置模型優化指南


//Stream模式
const ai= await window.model.createTextSession()
const streamResult = ai.promptStreaming("翻譯成英文:今天天氣很好");
for await(const chunk of streamResult){
 console.log(chunk);
}

//也可以使用這樣
const ai= await window.ai.createTextSession()
const streamResult = ai.promptStreaming("翻譯成英文:今天天氣很好");
for await (const chunk of streamResult){
    console.log(chunk)
}

測試結果

截圖

image.png

還挺傻傻的,我跟它說,我叫Aidec,讓它介紹自己。結果它理解成它叫Aidec ....



文章轉載或引用,請先告知並保留原文出處與連結!!(單純分享或非營利的只需保留原文出處,不用告知)

原文連結:
https://blog.aidec.tw/post/chrome-ai
若有業務合作需求,可寫信至: opweb666@gmail.com