圖3 理想針孔式透視模型
1.4 多機器人傳感器融合
多機器人傳感器融合(也稱為分布式傳感) 是指 機器人群體系統(tǒng)通過機器人之間的信息交互, 把分 布在不同機器人上的多個同類或不同類傳感器提供 的局部環(huán)境信息加以綜合, 以形成對環(huán)境相對完整 的感知。 通過多機器人傳感器融合, 單個機器人可以 得到比較精確的全局環(huán)境模型, 提高機器人對賽場 情況判斷的準(zhǔn)確性、完整性和實時性。 主要的傳感器 信息融合方法有加權(quán)平均、貝葉斯估計、卡爾曼濾 波、統(tǒng)計決策理論、模糊邏輯、人工神經(jīng)網(wǎng)絡(luò)等。 在RoboCup 中型組比賽中, 德國弗賴堡大學(xué)隊 比較成功地實現(xiàn)了多機器人的傳感器融合, 球隊的 每個機器人先通過多傳感器融合獲得局部環(huán)境的信 息, 然后場外的服務(wù)器對局部環(huán)境信息再次融合, 結(jié) 合卡爾曼濾波和M arkov 定位方法, 獲得了比較精 確的全局環(huán)境模型。
多機器人傳感器融合是一種很有發(fā)展前途的技 術(shù), 但是, 由于傳感器提供的信息受環(huán)境狀態(tài)和傳感 器本身特性的制約, 分布在不同機器人上的傳感器 所提供的信息可能是不完整、不確定的、甚至是不正 確的,機器人之間也可能存在相互干擾。
1.5 多機器人的協(xié)作
多機器人的協(xié)作是指多個機器人通過協(xié)調(diào)各自 的行為, 合作完成共同目標(biāo)。 多機器人的協(xié)作策略在 很大程度上決定了一支球隊的強弱, 也是機器人智 能的一個集中體現(xiàn)。 在RoboCup 中, 一支球隊中的 多個機器人要完成進球的任務(wù), 就必須以一定的形 式組織起來, 以達到相互配合的目的。 常用的協(xié)作策 略有基于區(qū)域的隊員組織和基于角色的隊員組織兩 種方法。 第1 種方法比較簡單, 其基本思想是: 場外 的服務(wù)器為所有隊員分配不同的區(qū)域, 處于某特定 區(qū)域的隊員要自主地做出動作選擇。 第2 種方法看 起來智能程度比較高, 其基本思想是: 隊員通過交流 效用值來選擇不同類型的角色, 隊員組織起來后, 角 色之間有明顯的配合。 伊朗Sharif 大學(xué)隊采用第1 種方法[ 5 ]: 場外的服務(wù)器為所有隊員動態(tài)地分配區(qū)域, 到達某特定區(qū)域的隊員要自主地做出動作選擇。 德國弗賴堡大學(xué)隊和意大利的ART 隊采用第2 種 方法: 所有隊員(除守門員) 是以積極型、輔助型和策 略型3 種不同的角色組織起來的。 積極型隊員去搶 球, 輔助型隊員幫助它進攻, 策略型隊員負(fù)責(zé)防守。 角色分配并不是固定的, 而是通過算法來實現(xiàn)的。
多機器人的協(xié)作對機器人的智能提出了很高的 要求: 單個機器人既要自主地完成個體行為, 又要與 其他機器人通信, 影響它們的行為, 同時自身的行為 又受到其他機器人的影響。 因此, 某一種策略的優(yōu)劣 不僅與策略本身有關(guān), 還與執(zhí)行策略的機器人、具體 的環(huán)境密切相關(guān)。
1.6 機器人的學(xué)習(xí)
目前, 機器人的行為實現(xiàn)大部分是通過編程人 員手工編程來實現(xiàn)的。一方面, 由于編程人員的知 識、經(jīng)歷有限, 不可能考慮到現(xiàn)實中所有可能出現(xiàn)的 情況; 另一方面, 當(dāng)任務(wù)和環(huán)境變得復(fù)雜時, 要完全 依靠程序員的手工編程實現(xiàn)機器人的行為, 就變得 非常繁重,甚至是不可能的。在這個背景下,具有自 學(xué)習(xí)能力的機器人成了一個新的研究熱點。 而 RoboCup 比賽的環(huán)境是動態(tài)變化的,任務(wù)是復(fù)雜 的,要想取得好的成績, 降低編程難度, 讓機器人自學(xué)習(xí)是一個很好的途徑。 由于增強學(xué)習(xí)可以實現(xiàn)機 器人在沒有或只有很少先驗知識的情況下, 通過學(xué) 習(xí)獲得較高的反應(yīng)能力和自適應(yīng)能力, 因此這種方 法受到了人們的廣泛關(guān)注[ 6 ]。
在訓(xùn)練單機器人技巧方面,N akamura[ 7 ]提出一 種自動分割狀態(tài)空間的算法, 即通過狀態(tài)空間的不 均勻分割來解決在應(yīng)用增強學(xué)習(xí)中遇到的輸入泛化 問題, 并將該算法應(yīng)用到足球機器人的射門和截球 動作中。 此外, 一些學(xué)者正在研究如何通過學(xué)習(xí)獲得 多個機器人的配合策略問題。 例如, 文獻[ 8 ]中采用 增強學(xué)習(xí)方法實現(xiàn)了多個機器人球員的任務(wù)分工; U ch ibe 等[ 9 ]將增強學(xué)習(xí)應(yīng)用到多機器人中, 通過學(xué) 習(xí)實現(xiàn)了兩個機器人相互配合傳球、射門的動作。 雖然增強型學(xué)習(xí)是一種很好的學(xué)習(xí)方法, 但是 由于機器人在學(xué)習(xí)之初, 沒有或有很少經(jīng)驗, 這樣, 機器人需要花費較長的時間通過在實踐中不斷積累 經(jīng)驗, 從而得到所需的規(guī)則。 這也是目前學(xué)習(xí)方法大 多應(yīng)用于仿真和實驗室環(huán)境的原因之一。