202X年的某一天清晨,隨著鬧鐘發出“主人,該起床了”的第一聲問候,窗簾開始自動拉開,房間裏投射進來一縷柔和的陽光。這時候家庭機器人開門進入臥室,它已經根據你的行程資訊幫你準備好了今天要穿的衣服,在你洗刷的時候自動麵包機也根據你的口味烤好了麵包,熱好了牛奶和雞蛋。

半小時後你走出了房門,車庫裏的汽車已經打開了冷气,調好適宜的溫度,上車即可出發。這時候家裏的自動洗碗機已經開始清洗餐具,掃地机械人開始打掃房間,清潔地板,洗衣機也開始洗滌早上換下的衣服......

undefined

這樣的場景聽上去是不是很像科幻電影?人們在很多年前就已經展開了豐富的想像,但是隨著人工智慧技術(AI)的發展,上述場景很可能在未來幾年就能實現,我們的生活中將會出現更多的智能機器,就像《鐵甲奇俠》電影中的賈維斯一樣,它們可以依照人們的喜好、命令主動工作,使得普通人處理日常瑣事所需的時間、精力大大減少。即便是居家生活,傳統家電遇到智能技術之後也會發生革命性的變化,二者結合帶來的不只是量變,而是質變,人類的生活、工作從此可以更輕鬆。

也正因為此,AI人工智慧也成為目前最火熱的市場,不論電腦廠商還是家電廠商,甚至互聯網應用廠商都紛紛投身AI技術、產品研發。在家電市場上,現在已經出現了多種人工智慧產品,常見的就有智能音箱、智能電視、智能空調、掃地機器人、智能機器人之類的,甚至還有智能插座、智能臺燈、智能門鎖等等產品。

undefined

“看”和“聽”是人工智慧的核心技術

當前人工智慧的核心是數據加演算法加算力,智能的核心就在於其演算法智能。

如何讓機器在貓、老虎和獅子之中準確識別出貓?過去,電腦通過顏色、紋理特徵識別,但是,這需要人工輸入特徵之後讓機器識別。現在不會應用這種早期的處理手段,人只需要“告訴”機器這是什麼動物,標注了成百上千張圖之後,電腦會自己“學會”識別特徵,這就是現代的深度學習演算法,完成圖像識別任務。

那麼,圖像識別之後能做什麼?比如無人駕駛汽車行駛在路上,如何識別路況,這就是一種應用。還可以用於監控裝置,智能攝像頭可以監控一個區域的人員密度、行為,甚至可以計算出每個人的身高體重。

所以,一個智能監控攝像頭可以快速識別視野範圍內人群的危險動作,這就是“非結構化資訊的結構化”。當然,還可以應用在道路車輛監控領域,所以,開車的司機們不要認為開得很快攝像頭無法快速跟蹤監測車速,在人工智慧圖像識別技術發達的今天來說,這些都是可以準確監測的。

人工智慧的語音檢測又是如何實現的呢?只要使用智能手機的用戶們都知道,如今發送短信或者微信時都可以輸入語音,手機會將你說的話轉化成文字,那麼,語音轉文字的過程是如何實現的呢?

語音轉文字時需要語音聲波信號一系列的轉化,形成特徵,將語音模型和語言模型結合後,進行計算,就可以把語音轉化為文字。那麼,手機上的語音轉文字只是一種初級的應用,如果用語音去控制智能設備,真正的難點是如何理解文本的含義。

如果一位女士和一位男士約定了會面時間,女士說“如果你到了我沒到,你就等著;如果我到了你沒到,你也等著吧。”,同樣是讓對方等著,但是女士表達的含義卻截然不同,人類可以聽出其背後的含義,但是機器只能分析出語法,卻無法識別其背後的含義。

針對“看”和“聽”兩項人工智慧核心技術,Google 開源了一個新的人工智慧專案--AIY Projects(AIY計畫),Artificial Intelligent Yourself!其目標是讓每個Maker(創客)都能DIY自己的 AI 人工智慧產品,讓更多人能學習、探索並體驗人工智慧。目前該專案已經成功發佈了兩款產品: voice kit 人工智慧語音識別開發套件,vision kit 人工智慧圖像識別開發套件。

24327083_314892459015202_6323866433100972032_n.jpg

1、AIY Voice Kit

Voice Kit作為一款語音工具,可以連接雲服務,如 Google 的 Assistant SDK 或者 Cloud Speech API 均可,也可以使用自身系統,其自身採用的系統很簡單,為全球流行的樹莓派(Raspberry Pi)。在全球開售的幾小時內,Voice Kit 就被搶光--

用戶可在此基礎上創建虛擬語音助手、為自己的專案添加語音交互功能。Voice Kit 的組成,主要有聲音捕捉、回放附件,非常易用的連接器、子板、揚聲器、微伺服系統等等。

Voice Kit 的主要功能及作用:

·可取代物理鍵和顯示幕;

·可取代智能手機APP以控制連接的設備;

·可以為助理機器人增加語音識別的功能。

Google AIY Voice kit 人工智慧語音識別開發套件

26185007_383878325383125_1258591306544840704_n.jpg

2、AIY Vision Kit

推出 Voice Kit 後不久,Google 又發佈了該專案下的第二個產品--Vision Kit。AIY Vision Kit的主要組件是 Raspberry Pi 的 Vision Bonnet 配件板。VisionBonnet板是該專案的核心,採用Intel Movidius MA2450晶片。 這種低功率視覺處理單元能夠運行神經網路模型來識別物體。

附帶的軟體運行三個基於TensorFlow的神經網路。 其中一個基於穀歌的MobileNets平臺,能夠識別超過1,000個日常物品。 第二個可以在圖像中發現面部和表情。 最後一個是專門用於識別貓,狗和人的神經網路。 Google還為AIY Vision創建了一個工具,允許您使用TensorFlow訓練新模型。 該套件支持Python API以進行基本更改,例如更改按鈕LED的顏色,調整揚聲器音量等。

微信截图_20180423174658.png

Google AIY Vision kit 人工智慧圖像識別開發套件

arrow
arrow
    全站熱搜

    Maker Even 發表在 痞客邦 留言(0) 人氣()