本發(fā)明涉及人工智能,更具體地涉及一種基于ai大模型的人機交互系統(tǒng)及方法。
背景技術:
1、隨著人工智能技術的快速發(fā)展,ai大模型為構建新一代人機交互系統(tǒng)提供了核心技術支撐。這些大模型通過多輪對話、上下文理解、邏輯推理等能力,為自然語言交互提供了堅實基礎。因此,人機交互系統(tǒng)正逐步從簡單的指令響應向更加智能化、個性化的方向發(fā)展,使得交互體驗更加豐富和高效。
2、在人工智能的浪潮中,ai大模型扮演著至關重要的角色,通過模擬人類的思考方式,使得機器能夠更好地理解用戶的語言和意圖,這種理解不僅僅局限于字面意義,還包括了對語境的把握和對情感的感知,ai大模型通過深度學習技術,能夠理解復雜的語義和上下文,甚至生成符合語境的回答,顯著提升了交互的自然性,使得人機交互系統(tǒng)能夠像人類一樣進行交流。
3、但是,傳統(tǒng)的交互系統(tǒng)往往依賴于固定的規(guī)則和模板,缺乏對用戶意圖和情感的深入理解,導致交互體驗不夠自然和流暢。此外,隨著用戶需求的多樣化和個性化,傳統(tǒng)的交互系統(tǒng)難以滿足不同用戶的差異化需求,缺乏對每個ai實體賦予獨特性格特征的能力,導致人機交互缺乏足夠的生動性和趣味性,因此,為了提升用戶體驗,新一代的人機交互系統(tǒng)需要更加智能化和個性化的設計。
技術實現(xiàn)思路
1、為了克服現(xiàn)有技術的上述缺陷,本發(fā)明提供了一種基于ai大模型的人機交互系統(tǒng),以解決上述背景技術中存在的問題。
2、本發(fā)明提供如下技術方案:一種基于ai大模型的人機交互系統(tǒng),包括:自然語言實時提取模塊、自然語言節(jié)點分割模塊、初始畫像建模識別模塊、動態(tài)畫像調整識別模塊以及ai特征識別結果輸出模塊;
3、所述自然語言實時提取模塊,包括首次交互語言提取單元和持續(xù)交互語言提取單元,通過nlp技術在用戶與系統(tǒng)進行交互時,實時提取用戶的自然語言輸入;
4、所述自然語言節(jié)點分割模塊,包括首次交互語言分割單元和持續(xù)交互語言分割單元,用于接收自然語言實時提取模塊中提取的用戶自然語言,并進行節(jié)點分割處理,將用戶自然語言劃分為多個獨立的語義節(jié)點;
5、所述初始畫像建模識別模塊,基于自然語言節(jié)點分割模塊中分割處理后的自然語言,建立用戶初始畫像,并構建用戶默認的ai實體初始畫像;
6、所述動態(tài)畫像調整識別模塊,基于自然語言節(jié)點分割模塊中分割處理后的自然語言,結合用戶初始畫像和用戶默認的ai實體初始畫像,通過長短期記憶方式動態(tài)調整,獲取用戶動態(tài)畫像和用戶默認的ai實體動態(tài)畫像;
7、所述ai特征識別結果輸出模塊,根據用戶動態(tài)畫像和用戶默認的ai實體動態(tài)畫像,輸出對應的ai特征識別結果。
8、優(yōu)選的,所述自然語言實時提取模塊包括首次交互語言提取單元和持續(xù)交互語言提取單元的具體內容如下:
9、所述首次交互語言提取單元:通過nlp技術在用戶首次與系統(tǒng)進行交互時,實時提取用戶的自然語言輸入,并且在用戶首次與系統(tǒng)進行交互時通過系統(tǒng)預設的ai畫像完成與用戶的首次交互;
10、所述持續(xù)交互語言提取單元:基于依據首次交互語言構建的用戶初始畫像和用戶默認的ai實體初始畫像,與用戶進行持續(xù)交互,并通過nlp技術在用戶與系統(tǒng)進行持續(xù)交互時,實時提取用戶的自然語言輸入。
11、優(yōu)選的,通過nlp技術實時提取用戶的自然語言輸入的具體內容為:通過語音識別技術將語音信號映射到單詞序列中,并根據語音識別技術的語法和語義規(guī)則對單詞序列進行選擇,獲取用戶的自然語言文本。
12、優(yōu)選的,所述自然語言節(jié)點分割模塊包括首次交互語言分割單元和持續(xù)交互語言分割單元的具體內容如下:
13、所述首次交互語言分割單元:用于接收自然語言實時提取模塊中首次交互語言提取單元提取的用戶自然語言,并進行首次交互語言節(jié)點分割處理,將用戶首次交互的自然語言劃分為n個獨立的首次交互語義節(jié)點;
14、所述持續(xù)交互語言分割單元:用于接收自然語言實時提取模塊中持續(xù)交互語言提取單元提取的用戶自然語言,并進行持續(xù)交互語言節(jié)點分割處理,將用戶持續(xù)交互的自然語言劃分為n個獨立的持續(xù)交互語義節(jié)點。
15、優(yōu)選的,所述初始畫像建模識別模塊的具體內容如下:
16、通過多模態(tài)數(shù)據分析技術對n個獨立的首次交互語義節(jié)點進行用戶情緒檢測,獲取n個用戶情緒集合,表示為:,其中表示用戶首次與系統(tǒng)進行交互時的情緒集合,i表示n個獨立的首次交互語義節(jié)點的編號;
17、基于用戶情緒集合,獲取首次交互語義節(jié)點中各個語義節(jié)點的情緒特征向量,構建用戶初始畫像的情緒維度,所述情緒維度表示首次交互語義節(jié)點中各個語義節(jié)點的情緒特征向量的最大值和最小值,將首次交互語義節(jié)點中各個語義節(jié)點的情緒特征向量的最大值和最小值作為邊界值結合實時提取用戶的自然語言輸入內容建立用戶初始畫像;
18、依據建立的用戶初始畫像構建用戶默認的ai實體初始畫像,引入激活函數(shù)生成ai實體初始角色,表達式為:,其中表示生成的ai實體初始角色,表示用戶情緒集合對ai實體初始畫像的影響權重矩陣,表示預設的偏置向量,表示激活函數(shù)。
19、優(yōu)選的,所述動態(tài)畫像調整識別模塊的具體內容如下:
20、通過長短期記憶方式獲取用戶持續(xù)交互語義節(jié)點,所述長短期記憶方式包括長期記憶方式和短期記憶方式,當選擇通過長期記憶方式獲取用戶持續(xù)交互語義節(jié)點時,表示以長期記憶方式預設的用戶對話語音數(shù)量進行自然語言提取,當選擇通過短期記憶方式獲取用戶持續(xù)交互語義節(jié)點時,表示以短期記憶方式預設的用戶對話語音數(shù)量進行自然語言提??;
21、通過多模態(tài)數(shù)據分析技術對n個獨立的持續(xù)交互語義節(jié)點進行用戶情緒檢測,獲取n個用戶情緒集合,表示為:,其中表示用戶與系統(tǒng)進行持續(xù)交互時的情緒集合,i表示n個獨立的持續(xù)交互語義節(jié)點的編號;
22、每個交互語義節(jié)點包括m個用戶情緒強度,首次交互語義節(jié)點用戶情緒強度表示為:,持續(xù)交互語義節(jié)點用戶情緒強度表示為:;
23、分析首次交互語義節(jié)點用戶情緒與持續(xù)交互語義節(jié)點用戶情緒之間的距離,計算公式為:,其中表示首次交互語義節(jié)點用戶情緒與持續(xù)交互語義節(jié)點用戶情緒之間的距離;
24、依據首次交互語義節(jié)點用戶情緒與持續(xù)交互語義節(jié)點用戶情緒之間的距離分析首次交互語義與持續(xù)交互語義的角色相似度,所述角色相似度的判斷模型為:,其中表示角色相似度的判斷模型的輸出結果;
25、當角色相似度的判斷模型的輸出結果大于或等于預設的判斷閾值時,則將用戶初始畫像和用戶默認的ai實體初始畫像設置為當前交互用戶畫像和用戶默認的ai實體畫像;
26、當角色相似度的判斷模型的輸出結果小于預設的判斷閾值時,則返回至初始畫像建模識別模塊,將持續(xù)交互語義節(jié)點和首次交互語義節(jié)點結合獲取2n個用戶情緒集合,獲取用戶動態(tài)畫像和用戶默認的ai實體動態(tài)畫像,并生成ai實體角色。
27、優(yōu)選的,所述ai特征識別結果輸出模塊的具體內容如下:
28、依據動態(tài)畫像調整識別模塊中用戶動態(tài)畫像和用戶默認的ai實體動態(tài)畫像,輸出ai特征識別結果:
29、將用戶初始畫像和用戶默認的ai實體初始畫像設置為當前交互用戶畫像和用戶默認的ai實體畫像時,則當前交互用戶畫像和用戶默認的ai實體畫像自動更新為用戶初始畫像和用戶默認的ai實體初始,并通過長短期記憶方式獲取用戶持續(xù)交互語義節(jié)點,重復動態(tài)畫像調整識別模塊的步驟,完成基于ai大模型的人機持續(xù)交互;
30、將持續(xù)交互語義節(jié)點和首次交互語義節(jié)點結合獲取2n個用戶情緒集合,獲取用戶動態(tài)畫像和用戶默認的ai實體動態(tài)畫像,并生成ai實體角色時,將所述用戶動態(tài)畫像和用戶默認的ai實體動態(tài)畫像自動更新為用戶初始畫像和用戶默認的ai實體初始,并通過長短期記憶方式獲取用戶持續(xù)交互語義節(jié)點,重復動態(tài)畫像調整識別模塊的步驟,完成基于ai大模型的人機持續(xù)交互;
31、將通過長短期記憶方式生成的ai實體角色輸出為對應的ai特征識別結果。
32、一種基于ai大模型的人機交互方法,包括以下步驟:
33、步驟s01:通過nlp技術在用戶與系統(tǒng)進行交互時,實時提取用戶的自然語言輸入;
34、步驟s02:接收用戶自然語言,并進行節(jié)點分割處理,將用戶自然語言劃分為多個獨立的語義節(jié)點;
35、步驟s03:基于分割處理后的自然語言,建立用戶初始畫像,并構建用戶默認的ai實體初始畫像;
36、步驟s04:基于分割處理后的自然語言,結合用戶初始畫像和用戶默認的ai實體初始畫像,通過長短期記憶方式動態(tài)調整,獲取用戶動態(tài)畫像和用戶默認的ai實體動態(tài)畫像;
37、步驟s05:根據用戶動態(tài)畫像和用戶默認的ai實體動態(tài)畫像,輸出對應的ai特征識別結果。
38、本發(fā)明的技術效果和優(yōu)點:
39、本發(fā)明設有自然語言實時提取模塊、自然語言節(jié)點分割模塊、初始畫像建模識別模塊、動態(tài)畫像調整識別模塊以及ai特征識別結果輸出模塊,不斷學習用戶的交互習慣和偏好,優(yōu)化ai實體的動態(tài)畫像,使人機交互更加自然、流暢和個性化;
40、通過nlp技術在用戶首次與系統(tǒng)進行交互時,實時提取用戶的自然語言輸入,基于首次交互語言構建用戶初始畫像和用戶默認的ai實體初始畫像與用戶進行持續(xù)交互,使得ai實體能夠更好地理解用戶的意圖和情感,從而提供更加精準和個性化的交互體驗;
41、結合用戶初始畫像和用戶默認的ai實體初始畫像,通過長短期記憶方式動態(tài)調整,獲取用戶動態(tài)畫像和用戶默認的ai實體動態(tài)畫像,輸出對應的ai特征識別結果,根據用戶的交互行為和情緒變化,不斷調整和優(yōu)化ai實體的畫像,讓每個ai實體擁有獨特的性格特征,提高人機交互的效率和滿意度,從而更好地滿足用戶的個性化需求。