中国专利搜索 世界专利搜索 专利分类查询 专利引用检索 专利族检索
登陆 | |

融合公平度、体验感和价格的用户满意度建模与展示空间调整方法
有权
阅读授权文献

User satisfaction modeling and display space adjusting method integrating fairness, experience feeling and price

申请号:201811538692.X 申请日:2018-12-17
CN201811538692
CN109615433A
微信扫码查看/分享专利
摘要:本申请涉及一种融合公平度、体验感和价格的用户满意度建模与展示空间调整方法,属于服务计算和软件工程的交叉领域。其特征在于,本发明使用公平度、体验感和价格来度量用户满意度,通过调整展示空间的空间位置、角度、形状和用户需支付的价格,来达到所有用户的最大满意程度。
Abstract: The invention relates to a user satisfaction modeling and display space adjusting method integrating fairness, experience feeling and price, and belongs to the crossing field of service calculation and software engineering. The method is characterized in that the fairness, experience feeling and price are used for measuring the user satisfaction degree, and the maximum satisfaction degree of all users is achieved by adjusting the spatial position, angle and shape of the display space and the price needing to be paid by the user.
申请人: 海南大学
Applicant: UNIV HAINAN
地址: 570228 海南省海口市美兰区********(隐藏)
发明(设计)人: 段玉聪 湛楼高 宋正阳
Inventor: DUAN YUCONG; ZHAN LOUGAO; SONG ZHENGYANG
主分类号: G06Q30/02(2012.01)I
分类号: G06Q30/02(2012.01)I
  • 法律状态
2020-08-04  授权
2019-05-07  实质审查的生效IPC(主分类):G06Q 30/02申请日:20181217
2019-04-12  公开
注:本法律状态信息仅供参考,即时准确的法律状态信息须到国家知识产权局办理专利登记簿副本。
  • 其他信息
主权项  1.本发明是一种融合公平度、体验感和价格的用户满意度建模与展示空间调整方法,属于服务计算和软件工程的交叉领域;其特征在于,本发明使用公平度、体验感和价格来度量用户满意度,通过调整展示空间的空间位置、形状和用户需支付的价格,来达到所有用户的最大满意程度;本发明的具体步骤如下:步骤一)通过展示系统带有的拍照功能或可识别用户相对位置的功能识别各个用户的相对位置,并做标记;步骤二)根据用户公平度设置用户支付价格的变化函数,计算公式如下:Cost_Fai=f1(γ.Fai),其中f1()为与Fai有关的常值函数;假设影响用户体验的物理因素包括用户眼睛离展示空间的最短距离和用户观影时用户视线与展示空间的平面夹角,对用户公平度进行建模,建模如下:通过展示系统的拍照或其他可识别图像的功能识别用户的脸部平面,在此假设各个用户的脸的抽象面积相差不多,即假设面积基本相等,通过拍照等功能识别的脸部面积和原始面积相比得到脸部倾斜角α的余弦值,在根据α的值确定用户脸部平面,然后取垂直于此平面且经过该平面中心位置的线作为用户观察展示系统的视线,计算用户的视线到展示空间的平面夹角θ,根据识别到的用户脸部的较短的边计算用户距离展示空间的长度s,将其作为用户眼睛到展示空间的距离;因此用户公平度函数的计算公式如下:Fai=α1g1(θ)+β1h1(s),其中α1和β1为用户视线与展示空间的角度和用户眼睛距离展示空间长度对用户体验感的影响参数,有数据训练得到;g1(θ)和h1(s)分别为角度函数和距离函数,计算公式如下:g1(θ)=1/n(θ1+θ2+...+θn),h1(s)=1/n(s1+s2+...+sn);步骤三)根据用户公平度调整展示空间的空间位置、角度和形状;调整展示空间的位置:X=(x1+x2+...+xn)/n+hx,Y=(y1+y2+...+yn)/n+hy,Z=hz,其中hx,hy,hz为由机器学习等方法得到的用户应该离展示屏幕应有的合适距离,X,Y,Z为展示空间的位置,为展示空间由原始位置移动到(X,Y,Z)位置的向量;调整展示空间的角度和形状:通过调整展示空间的倾斜角度和形状改变用户视线与展示空间的平面夹角,展示空间以某一条轴线旋转角度的计算公式如下:θFai=900‑1/n(θ1+θ2+...+θn),其中θi为各个用户的视线与展示空间的平面夹角,当θ>0时,逆时针旋转;当θ<0时,顺时针旋转;步骤四)根据用户体验感设置用户支付价格的变化函数,计算公式如下:Cost_Exp=f2(Exp),其中f2()为满足非线性的、单调递增的类型函数(如倒数函数),Cost_Exp为价格变量,Exp为用户体验感变量;假设影响用户体验的物理因素包括用户眼睛离展示空间的最短距离和用户观影时用户视线与展示空间的平面夹角,对用户体验感进行建模,建模如下:通过展示系统的拍照或其他可识别图像的功能识别用户的脸部平面,在此假设各个用户的脸的抽象面积相差不多,即假设面积基本相等,通过拍照等功能识别的脸部面积和原始面积相比得到脸部倾斜角α的余弦值,在根据α的值确定用户脸部平面,然后取垂直于此平面且经过该平面中心位置的线作为用户观察展示系统的视线,计算用户的视线到展示空间的平面夹角θ,根据识别到的用户脸部的较短的边计算用户距离展示空间的长度,将其作为用户眼睛到展示空间的距离;因此用户体验感函数的计算公式如下:Exp=α2g2(θ)+β2h2(s),其中α2和β2为用户视线与展示空间的角度和用户眼睛距离展示空间长度对用户体验感的影响参数,有数据训练得到;g2(θ)和h2(s)分别为角度函数和距离函数,两者都是满足如下条件的类型函数(如满足正态分布的函数):g2(θ),h2(s)>0;g2(θ),h2(s)非线性;g2(θ),h2(s)具有唯一极大值;步骤五)根据用户体验感调整展示空间的空间位置、角度和形状;调整展示空间的位置:假设用户预期达到的体验感为最大,计算展示空间需移动的距离和方向,计算公式如下:,其中hx,hy,hz为机器学习等方法得到的用户在三维空间中三个方向应该离展示屏幕应有的合适距离(为方便计算,此处假设为空间直角坐标系x,y,z为三个坐标轴),si为每个用户实际距离展示空间的距离,为用户观影时的视线方向的反方向;调整展示空间的角度和形状:通过调整展示空间的倾斜角度和形状改变用户视线与展示空间的平面夹角,展示空间以某一轴线旋转的角度的计算公式如下:,其中θi为各个用户的视线与展示空间的平面夹角;当θExp>0时,逆时针旋转;当θExp<0时,顺时针旋转;展示空间在可变时间范围内周期性地改变位置和角度,以达到舒缓用户可能长时间观影所导致的脖子僵硬、眼睛疲劳等;改变的大小由经机器学习等方法得到健康模型得出;步骤六)基于公平度和体验感对用户满意度建模;对于价格而言:Cost_Sat=a×Cost_Fai+b×Cost_Exp,其中a,b为用户公平度和体验感的影响参数,由数据训练得到;对于空间位置而言:;对于角度和形状而言:θSat=a×θFai + b×θExp 。
公开号  109615433A
公开日  2019-04-12
专利代理机构  
代理人  
颁证日  
优先权  
 
国别 优先权号 优先权日 类型
CN  201811538692  20181217 
国际申请  
国际公布  
进入国家日期  
  • 专利对比文献
类型 阶段 文献号 公开日期 涉及权利要求项 相关页数
SEA  US2014253875A1  20140911  全文 
SEA  CN108109010A  20180601  全文 
SEA  CN208172727U  20181130  全文 
SEA  WO2013045531A1  20130404  全文 
SEA  CN106886912A  20170623  全文 
注:不保证该信息的有效性、完整性、准确性,以上信息也不具有任何效力,仅供参考。使用前请另行委托专业机构进一步查核,使用该信息的一切后果由用户自行负责。
X:单独影响权利要求的新颖性或创造性的文件;
Y:与检索报告中其他 Y类文件组合后影响权利要求的创造性的文件;
A:背景技术文件,即反映权利要求的部分技术特征或者有关的现有技术的文件;
R:任何单位或个人在申请日向专利局提交的、属于同样的发明创造的专利或专利申请文件;
P:中间文件,其公开日在申请的申请日与所要求的优先权日之间的文件,或会导致需核实该申请优先权的文件;
E:单独影响权利要求新颖性的抵触申请文件。
  • 期刊对比文献
类型 阶段 期刊文摘名称 作者 标题 涉及权利要求项 相关页数
  • 书籍对比文献
类型 阶段 书名 作者 标题 涉及权利要求项 相关页数
  • 附加信息
同族专利
CN109615433B
 
引用文献
US2014253875A1WO2013045531A1CN106886912A
CN108109010ACN208172727U
 
被引用文献