智能推荐原理(智能制造)

2023-12-16 14:16:09 解铭网

摘要简要智能阅读中智能推荐的技术原理智能推荐算法总的来说分为两种:基于内容的推荐算法和协同过滤推荐算法。根据内容的相似度(静态的东西)进行推荐,内容不好提取的可以采取贴标签...

智能推荐原理(智能制造)

简要智能阅读中智能推荐的技术原理

智能推荐算法总的来说分为两种:基于内容的推荐算法和协同过滤推荐算法。

根据内容的相似度(静态的东西)进行推荐,内容不好提取的可以采取贴标签的形式来区分计算内容的相似程度。然后根据用户的喜好设置,关注等进行相似内容推荐。

根据动态信息来进行推荐,即推荐的过程是自动的,推荐结果的产生是系统从用户的购买行为或浏览记录等隐式信息拿到的,无需用户通过填表格等方式来明确自己的喜好。因为这些数据都是要读到内存中进行运算的,所以又叫基于内存的协同过滤(Memory-based Collaborative Filtering),另一种协同过滤算法则是基于模型的协同过滤(Model-based Collaborative Filtering);m个物品,m个用户的数据,只有部分用户和部分数据之间是有评分数据的,其它部分评分是空白,此时我们要用已有的部分稀疏数据来预测那些空白的物品和数据之间的评分关系,找到最高评分的物品推荐给用户。对于这个问题,用机器学习的思想来建模解决,主流的方法可以分为:用关联算法,聚类算法,分类算法,回归算法,矩阵分解,神经网络,图模型以及隐语义模型来解决。

(https://www.cnblogs.com/chenliyang/p/6548306.html)

而基于内存的协同过滤又有两种:

基于user的协同过滤(用户相似度):通过相似用户的喜好来推荐

基于item的协同过滤(内容相似度):通过用户对项目的不同评分推荐可能让用户打高评分的项目,是项目之间的相似度。

任何一种单一推荐算法都有缺点,我们在实际项目中,可以采用混合推荐算法,融合以上方法,通过串联并联等融合,构造出自己的一套推荐体系。

人工智能的原理是什么

人工智能的原理,简单的形容就是:

机器的智能程度,取决于“算法”。最初,人们发现用电路的开和关,可以表示1和0。那么很多个电路组织在一起,不同的排列变化,就可以表示很多的事情,比如颜色、形状、字母。再加上逻辑元件(三极管),就形成了“输入(按开关按钮)——计算(电流通过线路)——输出(灯亮了)”

为了实现更复杂的计算,最终变成了,“大规模集成电路”——芯片。

电路逻辑层层嵌套,层层封装之后,我们改变电流状态的方法,就变成了“编写程序语言”。程序员就是干这个的。

程序员让电脑怎么执行,它就怎么执行,整个流程都是被程序固定死的。

所以,要让电脑执行某项任务,程序员必须首先完全弄清楚任务的流程。

别小看这电梯,也挺“智能”呢。考虑一下它需要做哪些判断:上下方向、是否满员、高峰时段、停止时间是否足够、单双楼层等等,需要提前想好所有的可能性,否则就要出bug。

某种程度上说,是程序员控制了这个世界。可总是这样事必躬亲,程序员太累了,你看他们加班都熬红了眼睛。

于是就想:能不能让电脑自己学习,遇到问题自己解决呢?而我们只需要告诉它一套学习方法。

大家还记得1997年的时候,IBM用专门设计的计算机,下赢了国际象棋冠军。其实,它的办法很笨——暴力计算,术语叫“穷举”(实际上,为了节省算力,IBM人工替它修剪去了很多不必要的计算,比如那些明显的蠢棋,并针对卡斯帕罗夫的风格做了优化)。计算机把每一步棋的每一种下法全部算清楚,然后对比人类的比赛棋谱,找出最优解。

但是到了围棋这里,没法再这样穷举了。力量再大,终有极限。围棋的可能性走法,远超宇宙中全部原子之和(已知),即使用目前最牛逼的超算,也要算几万年。在量子计算机成熟之前,电子计算机几无可能。

所以,程序员给阿尔法狗多加了一层算法:

A、先计算:哪里需要计算,哪里需要忽略。

——本质上,还是计算。哪有什么“感知”!

在A步,它该如何判断“哪里需要计算”呢?

这就是“人工智能”的核心问题了:“学习”的过程。

仔细想一下,人类是怎样学习的?

人类的所有认知,都来源于对观察到的现象进行总结,并根据总结的规律,预测未来。

当你见过一只四条腿、短毛、个子中等、嘴巴长、汪汪叫的动物,名之为狗,你就会把以后见到的所有类似物体,归为狗类。

不过,机器的学习方式,和人类有着质的不同:

人通过观察少数特征,就能推及多数未知。举一隅而反三隅。

机器必须观察好多好多条狗,才能知道跑来的这条,是不是狗。

这么笨的机器,能指望它来统治人类吗。

它就是仗着算力蛮干而已!力气活。

具体来讲,它“学习”的算法,术语叫“神经网络”(比较唬人)。

(特征提取器,总结对象的特征,然后把特征放进一个池子里整合,全连接神经网络输出最终结论)

1、吃进大量的数据来试错,逐渐调整自己的准确度;

2、神经网络层数越多,计算越准确(有极限),需要的算力也越大。

所以,神经网络这种方法,虽然多年前就有了(那时还叫做“感知机”)。但是受限于数据量和计算力,没有发展起来。

神经网络听起来比感知机不知道高端到哪里去了!这再次告诉我们起一个好听的名字对于研(zhuang)究(bi)有多重要!

现在,这两个条件都已具备——大数据和云计算。谁拥有数据,谁才有可能做AI。

图像识别(安防识别、指纹、美颜、图片搜索、医疗图像诊断),用的是“卷积神经网络(CNN)”,主要提取空间维度的特征,来识别图像。

自然语言处理(人机对话、翻译),用的是”循环神经网络(RNN)“,主要提取时间维度的特征。因为说话是有前后顺序的,单词出现的时间决定了语义。

神经网络算法的设计水平,决定了它对现实的刻画能力。顶级大牛吴恩达就曾经设计过高达100多层的卷积层(层数过多容易出现过拟合问题)。

当我们深入理解了计算的涵义:有明确的数学规律。那么,

这个世界是是有量子(随机)特征的,就决定了计算机的理论局限性。——事实上,计算机连真正的随机数都产生不了。

更多神佑深度的人工智能知识,想要了解,可以私信询问。

新闻智能推荐的原理

1、平台机器首先会给内容打标签,根据标签推荐具有同样标签的其他内容。

2、打标签的方法就是平台设定好很多标签,然后制作或者上传的用户在发布内容的时候选择该内容属于一个或者多个标签贴上进行发布,发布成功后该内容就属于该标签分支下无数条内容的其中一条。

3、假设你在某平台上浏览了一条关于产品的内容A,内容A制作上传的时候打上了产品的标签,那么你下次大概率也会浏览到其他关于具有产品标签的内容,随机抽取的内容B、C、D…

4、1)阅读类型和阅读面受限,降低了多元化信息的接收。

5、身边也很多朋友反应现在感觉每天在各种头条除了热点看到的文章都一个样了,喜欢看NBA资讯的每天都能看到NBA资讯,爱看服装搭配的也每天都有,喜欢的明星的新闻也天天不落下。

6、这个世界每天都发生那么多的奇奇怪怪的事情,可我们接收到的信息似乎都一个样。

7、2)沉迷于人性的弱点,享受短暂在快乐无法自拔。

8、身边已经有不少朋友把小视频卸载了,原因无他,只是不想继续沉迷于短视频的快乐之中。相信刷短视频肯定占据了我们一天中很大的时间比例,下班后到睡觉前的这几个小时,公交地铁、吃饭的碎片时间等等。

  • 版权声明: 本文源自解铭网 编辑,如本站文章涉及版权等问题,请作者联系本站,我们会尽快处理。
Copyright © 2016-2023 解铭网  版权所有 滇ICP备2023010044号-40


返回顶部小火箭