-
12月18日,华为云在曼谷举办了以“引领AI未来”为主题的首届泰国AI主题峰会。来自政企客户、本地伙伴、中资伙伴和开发者等一千人参加了会议。会议围绕着“AIforThailand”、“AIforIndustry”和“AIforEcosystem”三个方向展开讨论,重点探讨了如何加速AI产业发展和构建AIHub,以及如何将华为云的盘古大模型3.0与重点行业应用相结合,推动本地AI生态的繁荣。软通动力作为华为的重要合作伙伴以及华为云的战略合作伙伴,与华为云和其他伙伴共同成立了泰国AI云智社区。软通动力还作为华
-
层次聚类是一种无监督学习技术,根据距离或相似性度量将相似的观察结果分组。链接方法决定了聚类间距离的计算方式。本文就来介绍下层次聚类中使用的链接方法,包括单链接、完全链接、平均链接和离差平方和法。单链接(Singlelinkage)也被称为最近邻链接,它将两个簇之间的距离定义为这两个簇中任意两个点之间的最短距离。换句话说,两个簇之间的距离是由它们最接近的点之间的距离确定的。然而,这种方法常常会导致形成长链状的聚类,而且对数据中的异常值和噪声非常敏感。完全链接(Ccompletelinkage)也称为最远邻居
-
一款名为Vary-toy的“年轻人的第一个多模态大模型”来了!模型大小不到2B,消费级显卡可训练,GTX1080ti8G的老显卡轻松运行。想将一份文档图片转换成Markdown格式?以往需要文本识别、布局检测和排序、公式表格处理、文本清洗等多个步骤。现在只需一句话命令:无论中英文,图片中的大段文字都能分分钟提取出来:对一张图做对象检测,还是能给出具体坐标的那种:这项研究由来自旷视、国科大、华中大的研究人员共同提出。据介绍,Vary-toy虽小,但却几乎涵盖了目前LVLM(大型视觉语言模型)主流研究中的所有
-
FLOPS是计算机性能评估的标准之一,用来衡量每秒的浮点运算次数。在神经网络中,FLOPS常用于评估模型的计算复杂度和计算资源的利用率。它是一个重要的指标,用来衡量计算机的计算能力和效率。神经网络是一种复杂的模型,由多层神经元组成,用于进行数据分类、回归和聚类等任务。训练和推断神经网络需要进行大量的矩阵乘法、卷积等计算操作,因此计算复杂度非常高。FLOPS(FloatingPointOperationsperSecond)可以用来衡量神经网络的计算复杂度,从而评估模型的计算资源使用效率。FLOPS指的是每
-
神经网络的权重初始化是在训练开始之前对神经元之间的权重进行一些初始数值的设定。这个过程的目的是让神经网络模型能够更快地收敛到最优解,并且有效地避免过拟合问题的发生。权重初始化的意义为了避免权重对称性,我们可以将所有的权重初始化为相同的值,例如零。然而,这会导致神经元之间的对称性,限制了神经网络学习更复杂的特征。因此,为了提高模型性能,我们应该采用随机初始化权重的方法。通过随机初始化,每个神经元都会具有不同的权重,从而打破对称性,使得神经网络能够学习到更多的特征。这样,我们可以更好地拟合数据并提高模型的表现
-
数据库巨头Oracle最近发布了OracleCloudInfrastructureGenerativeAI服务,并引入了一系列创新技术,为大型企业提供了最新的生成式AI技术成果的利用机会。OCIGenerativeAI服务是一项全面管理的、云托管的产品,它利用强大的大型语言模型,如MetaPlatform的开源Llama2和Cohere的专有算法,并与现有系统集成。这样,企业能够实现对当前由人类执行的许多手动业务流程的自动化。OCIGenerativeAI服务通过提供自动化解决方案,帮助企业提高效率和生产
-
Invoxia公司在CES2024中发布了一款名为Minitailz的智能宠物追踪器,这款设备是专为猫狗设计的AI可穿戴设备。售价为99美元(约合709元人民币),此外,用户还需要每月支付8.3美元(约合59元人民币)的订阅费才能使用相关服务。(来源:IT之家)据悉,Minitailz追踪器内置了一体式GPS和健康追踪器,可以准确识别宠物的步行、跑步、抓挠、吃喝、吠叫和休息等行为方式。此外,它还能结合宠物的呼吸频率和心脏体征,通过AI技术测量宠物的健康情况,并提醒主人可能存在的健康问题。这款追踪器为主人提
-
Transformer和CNN是深度学习中常用的神经网络模型,它们的设计思想和应用场景有所不同。Transformer适用于自然语言处理等序列数据任务,而CNN主要用于图像处理等空间数据任务。它们在不同场景和任务中都有独特的优势。Transformer是一种用于处理序列数据的神经网络模型,最初是为了解决机器翻译问题而提出的。它的核心是自注意力机制(self-attention),通过计算输入序列中各个位置之间的关系来捕捉长距离依赖性,从而更好地处理序列数据。Transformer模型由编码器和解码器组成。
-
人脸识别是一种利用计算机视觉技术自动识别人脸的技术。基于深度学习的人脸识别算法是最先进的技术之一,通过学习大量人脸图像来实现人脸的准确识别。基于深度学习的人脸识别算法类型基于深度学习的人脸识别算法可以分为两类:基于特征的方法和基于特征学习的方法。基于特征的人脸识别方法依赖于手工设计的特征提取器来提取人脸的特征向量,然后使用分类器对这些特征向量进行分类,从而实现人脸识别功能。常见的特征提取器包括局部二值模式(LBP)、主成分分析(PCA)和线性判别分析(LDA)等。然而,这些方法存在一些缺点。首先,需要手动
-
扩散生成模型(DGM)是一种基于深度学习的数据生成模型,它利用扩散过程的物理原理来生成数据。DGM将数据视为一个初始状态通过一系列扩散步骤逐渐演化而来的过程。这种模型在图像、文本等多个领域的数据生成任务中得到了广泛应用,并且具备较高的生成质量和泛化能力。通过学习数据的扩散过程,DGM可以生成具有逼真性和多样性的数据样本,有助于提升模型的生成能力和应用场景的拓展。离散和连续是描述数据类型的概念。在离散数据中,每个数据点都是离散的,只能取某些特定的值,如整数或布尔值。而在连续数据中,数据点可以取无限个数值,如
-
AIC(AkaikeInformationCriterion)和BIC(BayesianInformationCriterion)是常用的模型选择标准,用于比较不同模型并选择最适合数据的模型。这两个标准的目标都是在模型的拟合优度和复杂性之间寻求平衡,以避免过拟合或欠拟合问题。AIC是由赤池弘次(HirotuguAkaike)提出的,它基于信息论的概念,考虑了模型的拟合优度和参数数量之间的平衡。AIC的计算公式为AIC=-2log(L)+2k,其中L表示模型的最大似然估计值,k表示模型的参数数量。BIC是由
-
ShuffleNetV2是一种经过微调设计的轻量化神经网络,主要应用于图像分类和目标检测等任务。它以高效计算、高准确率和轻量级设计为特点。ShuffleNetV2的目标是在保持高准确率的同时,提供高效的计算结果。该网络的核心思想是通过特殊的通道重排形式来实现高效计算。通过在网络层的设计中引入轻量级的模块,ShuffleNetV2能够在资源受限的设备上实现快速的推理和训练。这种通道重排的方法在网络中引入了更多的并行计算操作,从而减少了计算量和存储需求。ShuffleNetV2通过将输入通道进行分组重排,使得
-
随着2024年拉斯维加斯消费电子展的结束,在今年的展会上,LG和三星等智能家居巨头(两家以智能家居领域闻名的韩国企业集团)将人工智能置于其公告的中心,并利用其行业领先的流行电视作为该技术的催化剂。参加活动的人常开玩笑说CES是“电视秀”,而今年,这个说法再正确不过了。TCL、松下和海信加入三星和LG的行列,向市场推出了突破显示面板技术界限的新电视,而韩国巨头则推出了尖端的处理器、新的人工智能升级功能、由人工智能辅助的新软件增强功能,这些功能旨在让家庭生活更轻松,甚至还有比以前更成熟的新型智能家居机器人。L
-
最近科技圈大家明显可以看到,许多厂商都开始在生成式AI领域进行发力,并根据自研模型数据推出多个AI新功能,尤其华为等国产手机厂商更是基于生成式AI大模型在系统层面进行了全面优化,今年三星都可能会推出AI手机,但是在苹果这边反而并没有怎么看到生成式AI的技术进展,是苹果忽视了生成式AI的风口吗?非也,最近有消息显示,苹果可能会在今年6月的WWDC2024大会上对生成式AI做重点宣传,并且iOS18操作系统或许会加入大量的AI新功能。根据了解,苹果自2023年初开始测试名为“Ajax”的语言大模型。在iOS1
-
神经网络可解释性(ExplainableArtificialIntelligence,XAI)指的是解释机器学习模型或人工智能系统的决策能力。在实际应用中,我们需要了解模型为何做出某种决策,以便能够理解和信任模型的输出结果。传统的机器学习模型,如决策树和线性回归,具有良好的可解释性。然而,深度学习模型,例如神经网络,由于其复杂的结构和黑盒特性,其决策过程往往难以解释。这是因为神经网络通过学习大量数据来提取特征和模式,而这些特征和模式往往超出了我们的认知能力。因此,提高神经网络的可解释性成为了一个非常重要的