第三十五届非显而易见杯专利无效挑战赛如期举行欢迎大家关注。
| 编号 | 名称 |
|---|---|
| 0 | US2014286413A1_Description_20251222_1018_+++A_B_C_E_d_f_g+++.docx |
| 0 | 结果合并.docx |
| 0 | WO2012108237A1_Description_20251222_1005_+++C_E+++.docx |
| 0 | WO2010074068A1_Description_20251222_1001_+++A_a+++.docx |
| 0 | WO2009063554A1_Description_20251222_1006_+++A_B_C_E_d_g+++.docx |
| 0 | WO2009063554A1_Description_20251222_1002_+++C_a_b_e_g+++.docx |
| 0 | WO2006007279A2_Description_20251222_1019_+++G_c_f+++.docx |
| 0 | WO9602895A1_Description_20251222_1020_+++C_E_G+++.docx |
| 0 | US2016080748A1_Description_20251222_1013_+++b+++.docx |
| 0 | US2015063454A1_Description_20251222_1011_+++A_B_C_E_d_f_g+++.docx |
| 0 | US2015049813A1_Description_20251222_1012.docx |
| 0 | US2014294089A1_Description_20251222_1019_+++A_B_C_E+++.docx |
| 0 | US2014294089A1_Description_20251222_1014_+++A_C+++.docx |
| 0 | CN102595131A_Description_20251222_1038_+++C_E_G_f_h+++.docx |
| 0 | US2014286413A1_Description_20251222_1014_+++A_B_C_D_E+++.docx |
| 0 | US2013251032A1_Description_20251222_1010.docx |
| 0 | US2012224640A1_Description_20251222_1007_+++A_C_E_F_G_b+++.docx |
| 0 | US2010220792A1_Description_20251222_1038_+++C+++.docx |
| 0 | US2010172582A1_Description_20251222_1009_+++A_B_C_E_F_G+++.docx |
| 0 | US2010172582A1_Description_20251222_1004_+++A_B_C_E_G+++.docx |
| 0 | US2008310503A1_Description_20251222_1016.docx |
| 0 | US2008310503A1_Description_20251222_1012_+++A_C_E_b+++.docx |
| 0 | US2008080615A1_Description_20251222_1004_+++C_F+++.docx |
| 0 | US2007065026A1_Description_20251222_1012_+++e+++.docx |
| 0 | US5892847A_Description_20251222_1009_+++A_C_E_H_b_g+++.docx |
| 0 | US5892847A_Description_20251222_1005_+++C+++.docx |
一种使用计算网络来执行期望动作序列的方法,包括:
使用强化学习来确定候选活动列表,每个候选活动至少部分地基于使用所述计算网络与至少一个其他实体进行的以确定待由所述至少一个其他实体执行的动作序列的协商,所述至少一个其他实体包括应用程序;
接收对所述候选活动之一的选择;以及
经由所述计算网络来执行与所选候选活动相对应的动作序列,其中,与所选候选活动相对应的动作序列基于与所选候选活动相关联的多个应用程序之间的协商来确定,且其中,所述多个应用程序中的每一应用程序与不同动作相关联。
1
.如权利要求1所述的方法,所述候选活动还基于如下中的一者或多者:偏好信息、期望回报、优先级或任务列表。
如权利要求2所述的方法,其中,所述偏好信息至少部分地基于来自一个或多个用户的平均数据。
.如权利要求1所述的方法,其中,对候选活动的选择会增大对所选候选活动进行后续建议的可能性。
.如权利要求1所述的方法,其中,忽略所述候选活动列表中的候选活动会减小对所选候选活动进行后续建议的可能性。
.如权利要求1所述的方法,其中,所述候选活动包括来自特定纲要的动作类别。
如权利要求2所述的方法,其中,执行与所选候选活动相对应的动作序列包括至少部分地基于所述预期回报来从用于执行所选候选活动的类似服务中进行选择。
.一种配置成使用计算网络来执行期望动作序列的装置,所述装置包括:存储器单元;以及
耦合至所述存储器单元的至少一个处理器,所述至少一个处理器被配置成:使用强化学习来确定候选活动列表,每个候选活动至少部分地基于使用所述计算网络与至少一个其他实体进行的以确定待由所述至少一个其他实体执行的动作序列的协商,所述至少一个其他实体包括应用程序;
接收对所述候选活动之一的选择;以及
经由所述计算网络来执行与所选候选活动相对应的动作序列,其中,与所选候选活动相对应的动作序列基于与所选候选活动相关联的多个应用程序之间的协商来确定,且其中,所述多个应用程序中的每一应用程序与不同动作相关联。
.如权利要求8所述的装置,所述候选活动还基于如下中的一者或多者:偏好信息、期望回报、优先级或任务列表。
.如权利要求9所述的装置,其中,所述偏好信息至少部分地基于来自一个或多个用户的平均数据。
如权利要求8所述的装置,其中,所述至少一个处理器被进一步配置成增大对所选候选活动进行后续建议的可能性。
.如权利要求8所述的装置,其中,所述至少一个处理器被进一步配置成减小对所述候选活动列表中未被选择的候选活动进行后续建议的可能性。
如权利要求8所述的装置,其中,所述候选活动包括来自特定纲要的动作类别。
如权利要求9所述的装置,其中,所述至少一个处理器被进一步配置成至少部分地基于所述预期回报来从用于执行所选候选活动的类似服务中进行选择。
一种配置成使用计算网络来执行期望动作序列的装备,所述装备包括:用于使用强化学习来确定候选活动列表的装置,每个候选活动至少部分地基于使用所述计算网络与至少一个其他实体进行的以确定待由所述至少一个其他实体执行的动作序列的协商,所述至少一个其他实体包括应用程序;
用于接收对所述候选活动之一的选择的装置;以及
用于经由所述计算网络来执行与所选候选活动相对应的动作序列的装置,其中,与所选候选活动相对应的动作序列基于与所选候选活动相关联的多个应用程序之间的协商来确定,且其中,所述多个应用程序中的每一应用程序与不同动作相关联。
如权利要求15所述的装备,所述候选活动还基于如下中的一者或多者:偏好信息、期望回报、优先级或任务列表。
.如权利要求16所述的装备,其中,所述偏好信息至少部分地基于来自一个或多个用户的平均数据。
.如权利要求15所述的装备,其中,对候选活动的选择会增大对所选候选活动进行后续建议的可能性。
如权利要求15所述的装备,其中,忽略所述候选活动列表中的候选活动会减小对所选候选活动进行后续建议的可能性。
如权利要求15所述的装备,其中,所述候选活动包括来自特定纲要的动作类别。
如权利要求16所述的装备,其中,用于执行与所选候选活动相对应的动作序列的装置至少部分地基于所述预期回报来从用于执行所选候选活动的类似服务中进行选择。
一种其上记录有用于使用计算网络来执行期望动作序列的指令的非瞬态计算机可读介质,所述指令在由处理器执行时使得所述处理器:使用强化学习来确定候选活动列表,每个候选活动至少部分地基于使用所述计算网络与至少一个其他实体进行的以确定待由所述至少一个其他实体执行的动作序列的协商,所述至少一个其他实体包括应用程序;
接收对所述候选活动之一的选择;以及
经由所述计算网络来执行与所选候选活动相对应的动作序列,其中,与所选候选活动相对应的动作序列基于与所选候选活动相关联的多个应用程序之间的协商来确定,且其中,所述多个应用程序中的每一应用程序与不同动作相关联。
如权利要求22所述的非瞬态计算机可读介质,所述候选活动还基于如下中的一者或多者:偏好信息、期望回报、优先级或任务列表。
如权利要求23所述的非瞬态计算机可读介质,其中,所述偏好信息至少部分地基于来自一个或多个用户的平均数据。
如权利要求22所述的非瞬态计算机可读介质,其中,所述指令在由所述处理器执行时还使得所述处理器增大对所选候选活动进行后续建议的可能性。
.如权利要求22所述的非瞬态计算机可读介质,其中,所述指令在由所述处理器执行时还使得所述处理器减小对所述候选活动列表中未被选择的候选活动进行后续建议的可能性。
如权利要求22所述的非瞬态计算机可读介质,其中,所述候选活动包括来自特定纲要的动作类别。
如权利要求23所述的非瞬态计算机可读介质,其中,执行与所选候选活动相对应的动作序列包括至少部分地基于所述预期回报来从用于执行所选候选活动的类似服务中进行选择