科技資訊:人工智能將非語言人群的溝通鴻溝減少了一半

導讀新時代高科技不計其數越來越發達,小伙伴們看過不少科技新聞吧,在我們生活中應該也用到很多這些高科技東西,有哪些小伙伴值的關注的呢,今

新時代高科技不計其數越來越發達,小伙伴們看過不少科技新聞吧,在我們生活中應該也用到很多這些高科技東西,有哪些小伙伴值的關注的呢,今天就跟大家分享一篇有關科技方面知識,希望大家會喜歡。

來自劍橋大學和鄧迪大學的團隊開發了一種新的情境感知方法,該方法可以消除用戶鍵入以進行交流的50%到96%的擊鍵次數,從而縮小了交流差距。

該系統專門針對非語言人群,并使用一系列上下文線索(例如用戶的位置,一天中的時間或用戶的講話伙伴的身份)來幫助建議與用戶最相關的句子。

非言語運動障礙人士經常使用帶有語音輸出功能的計算機與他人交流。但是,即使沒有影響打字過程的肢體殘疾,這些交流輔助工具仍然太慢且容易出錯,無法進行有意義的對話:典型的打字速度在每分鐘5到20個單詞之間,而典型的說話速度在100范圍內每分鐘140個單詞。

該研究的主要作者,劍橋大學工程系的珀·奧拉·克里斯滕森教授說:“通信速率的差異被稱為通信差距。”“這種差距通常在每分鐘80到135個詞之間,并且影響了依靠計算機進行交流的人們的日常交互質量。”

克里斯滕森教授及其同事開發的方法使用人工智能,使用戶可以快速檢索他們過去鍵入的句子。先前的研究表明,依賴語音合成的人們,就像其他所有人一樣,傾向于在日常對話中重用許多相同的短語和句子。但是,對于現有語音合成技術的用戶而言,檢索這些短語和句子是一個耗時的過程,從而進一步減慢了對話流程。

在新系統中,隨著人員的鍵入,系統會使用信息檢索算法根據鍵入的文本和人員所參與的會話的上下文自動檢索最相關的先前句子。上下文包括有關會話的信息,例如位置,一天中的時間以及自動識別對方的臉部。使用經過訓練可從前置攝像頭識別人臉的計算機視覺算法來識別其他說話者。

免責聲明:本文由用戶上傳,如有侵權請聯系刪除!