Welcome to SpiceShop Theme

Sea summo mazim ex, ea errem eleifend definitionem vim. Ut nec hinc dolor possim mei ludus efficiendi ei sea summo mazim ex.

Archive November 2024

Welcoming the “Golden Era" | Astro Machine Works

The manufacturing landscape has been fairly dramatic over the past few years. With reshoring becoming a reality and a trend of consequence, conjectures have abounded. Will manufacturing reclaim its stronghold? Will its contribution to the GDP rise? While there are no definitive answers or fool proof estimates, one thing is crystal clear. In order to

Read More

Panda Hat Snapback

Assert your style and taste with your favorite animal this summer. Our Panda Hat Snapback with its embroidered logo is ideal to enjoy the sun serenely. Want to proudly display your favorite animal this summer. Make the choice of our black panda cap. You will love its beautiful embroidered panda logo with geometric shape. Its

Read More

Naver 推出多语言大模型:HyperCLOVA X LLM,“为亚洲构建主权人工智能”

韩国互联网巨头 Naver 上周发布了一系列名为 “HyperCLOVA X” 的大语言模型。 该公司声称该模型在亚洲语言的跨语言推理方面比其他模型表现更好,因此可能有助于该地区开发主权型大语言模型。 Naver宣布HyperCLOVA X 在韩语中首次亮相,开放期刊 arXiv 上的一份英文技术报告评测了该模型,该报告声称“我们相信 HyperCLOVA X 凭借其在英语和韩语以外其他语言方面的竞争能力,并可以为各地区提供有用的指导或国家发展自己的主权大语言模型。” 据称,HyperCLOVA X 接受了“由韩语、多语言和代码段组成”的数据预训练。 多语言子集主要是英语,但也包括各种其他主流语言,例如日语、德语和法语。 韩语材料约占预训练数据的三分之一,这表明 Naver 选择提高其母语模型的性能,预训练过程还考虑了韩语的特殊语法。 Naver 声称,这一努力的结果便是“天生精通韩语和英语”的模特。 更好的表现是,这些模型显示出“多语言能力“,使用除训练处理语言之外的语言进行工作的能力。 “我们的分析表明,HyperCLOVA X 不仅能够将其推理能力扩展到其主要目标语言之外,而且在韩语和非目标语言(例如日语与中文)之间的机器翻译方面也达到了最先进的水平,”。 技术报告还指出: “HyperCLOVA X 令人印象深刻的多语言能力,还包括韩语和英语之间的跨语言转换,其中一种语言的指令调整可以导致另一种语言的指令跟踪功能的出现。” 多语言测试结果,可以让开发者得出更好的结论,HyperCLOVA X“可以转移到预训练数据中代表性不足的亚洲语言”。 Keyword: Midjourney

Meta人工智能负责人:大语言模型永远无法达到人类智力水平

围绕通用人工智能的“炒作”正在进行中,不管是媒体还是机构,它是无法避免的。 几乎每天都会出现有关这一概念的新标题 ,该一概念设想以及计算机系统在各种认知或任务上的表现的确优于人类。 在上个月,三位科技业界中的名人发表了各自新对通用人工智能AGI的声明。 Nvidia 首席执行官黄仁勋表示 AGI 将在五年内到来;“AGI 之父”Ben Goertzel预测只有 3 年,AGI便会到来。而伊隆·马斯克 (Elon Musk)通常会对转折点做出最大胆的预测:2025 年底即可实现。 不过,并非所有人都如此乐观。一位著名的怀疑论者是 Meta 的首席人工智能科学家、著名的图灵奖获得者 Yann LeCun。 LeCun 通常被称为“AI 三教父”之一,他甚至认为“不存在 AGI 这样的东西”,因为“人类智能远非通用”。 这位法国人更喜欢规划一条通往“人类水平的人工智能”的道路。  周二在伦敦——Meta 在美国以外的旗舰工程中心——举行的一次活动上,LeCun 表示,即便如此,这仍然是一个遥远的目的地。 他指出了四个认知挑战:推理、计划、持久记忆和理解物理世界。 “这些是人类智力的四个基本特征——就此而言,动物智力也是如此——当前的人工智能系统无法做到,”他说。 如果没有这些功能,人工智能应用程序仍然受到限制并且容易出错。自动驾驶汽车在公共道路上仍然不安全。家用机器人很难完成基本的家务活。我们的智能助手只能完成基本任务。 这些智力缺陷在大型语言模型(LLM)中尤为突出。在 LeCun 看来,它们受到对一种人类知识形式的依赖的严重限制:文本。 “我们很容易因为语言流利而误以为他们很聪明,但实际上,他们对现实的理解非常肤浅,”他说。 “它们很有用,这是毫无疑问的。但在通往人类水平智力的道路上,法学硕士基本上是一个出口,一个干扰,一个死胡同。” 为什么大语言模型并不像他们看起来那么聪明 Meta 的 LLaMA、 OpenAI 的GPT-3 和 Google 的 Bard等都接受了大量数据的训练。据 LeCun 称,人类需要大约 100,000 年才能阅读一位顶尖大模型所摄取的所有文本。 但是,这不是我们人类的主要学习方法。 我们通过与世界的互动消耗更多的信息。LeCun 估计,一个典型的四岁孩子看到的数据比世界上最大的语言模型要多 50 倍。

Read More

Linus Torvalds 谈 Linux 现状和AI未来

在近日于日本举行的开源峰会上, Linus Torvalds 谈到了 Linux 中的 Rust、Linux 维护人员的疲劳以及人工智能在 Linux 和开源开发中的未来角色。 圣诞节前合并新版本代码 Linus Torvalds 是一个保持低调的人物。但是他还是来到在 Linux 基金会的日本开源峰会上,Torvalds 与Verizon 开源负责人 Dirk Hohndel 探讨了 Linux 的现状。 首先,两人讨论了下一个 Linux 内核版本 Linux 6.7。 在飞往东京之前,  Torvalds 就发布了 6.7 的第四个候选版本。这意味着,如果一切顺利,下一个版本的 Linux 将在圣诞节前后发布。  Torvalds提到不想“在圣诞节前后出现合并窗口,这对我来说毁了圣诞节”。但现在,“我们只是在等待,以确保我们没有任何令人震惊的事情。”  为了确保现在正在准备下一个版本 6.8 的维护人员和开发人员不会陷入“恐慌,因为他们知道圣诞节后我的合并窗口将打开,我们可能会推迟一两周”为了更好地安排时间,因为没有人愿意在圣诞节期间干活。” 关于Linux的维护 谈到维护人员,Hohndel 提出“内核维护人员疲劳,这个角色有多疲惫和压力”等问题。  Torvalds 回答说:“是的,找到开发人员要容易得多,社会是有很多开发人员。但有些人认为,你必须是一个可以做任何事情的超级开发人员才能成为维护人员,但事实并非如此。”  “要成为一名维护者,你必须有一定的品味来评审其他人的代码。其中一些可能是天生的,但很多都需要练习。你必须能够审视其他人的代码,并能够判断“这是一个好的还是一个坏方法?” 这通常只是一个已经做了很多年的问题。” Torvalds 补充还说,“我们确实有很多优秀的维护者,但另一部分是你必须一直在那里。或者你必须找到其他可以合作的维护者,以便你可以安排假期以及诸如此类的事情。”  代码好写,人际关系不好处 现在对于Torvalds 来说,“一直坐在那里一点不是问题,因为我喜欢做我正在做的事情。几个月前我在度假,但我有我的笔记本电脑。如果我没有带着我的笔记本,我会觉得很无聊。这就是我所做的。但我意识到,这并不适合每个人的生活,尤其是当你必须将一生的岁月投入其中时。” 这也是Torvalds 必须学习,才能做得更好的事儿。 “代码很容易写。你有一个正确的答案,也有一个错误的答案。人际关系很困难,特别是与其他开发人员和维护人员合作,尤其是当你的维护人员致力于不同目标的不同事情时。他们想要将自己的区域推向一个方向,而另一位维护人员从另一个区域进来,想要将它拉向另一个方向。这种情况对我可能会非常有压力。” 2018年,托瓦兹决定改变自己愤怒的人设。他暂时离开了 Linux 内核,转而研究自己对待其他开发人员的行为。掌握并调整了之后,Torvalds 又回到了内核开发小组。但打那以后,他的脾气就温和多了。

Read More

IBM之Watsonx Code Assistant 实现 COBOL 代码现代化

IBM 最近推出了 watsonx Code Assistant,即 watsonx代码助手。它针对当前的多种用例:IT 自动化以及应用程序现代化。 此产品在发布时由两个主要组件组成:用于 Red Hat Ansible Lightspeed 的 watsonx Code Assistant和用于 Z 的 watsonx Code Assistant。  适用于红帽系统 Ansible Lightspeed 的 Watsonx Code Assistant 将使用生成式 AI 来协助 IT 团队完成网络配置或代码部署等工作。 Watsonx Code Assistant for Z 使用该技术帮助实现大型机应用程序现代化,并可以将你的应用程序从 COBOL 转换为 Java。  Watsonx Code Assistant for Z 可以帮助开发者以及业务中发现应用程序、业务服务重构和代码转换。 下一版本,这个助手的计划将在该工具中添加自动验证等测试。  IBM 在公告中这样解释说,这里的目标不是将所有 COBOL 应用程序完全转变为 Java 应用程序,而是实现两者最佳结合使用的世界。  IBM 院士兼

Read More

Panda Bear Slippers

You’ll love walking around your house with thisPanda Bear Slippers. His touching face is all round and too cute. Comfort him by wearing him at home. You won’t be able to do without our pair of slippers with this sad panda head. Made of quality cotton, this slipper has a fleecy interior that is cozy

Read More

GPT-4 API全面开放,开发者应该知道哪些?

OpenAI 本周四(7月6日)宣布,其最新的大型语言模型GPT-4将通过其API正式开放使用。 目前,所有OpenAI的API付费用户(有成功支付历史的)都可以访问拥有8K上下文记忆的GPT-4。另外,该公司计划在本月底向新的开发人员开放API访问权限,然后通过算力可用性来调整可用性限制。 这意味着全球开发者都能使用到GPT-4大型语言模型,来增强自己的应用程序或开发全新的生成式AI应用了。 OpenAI在一篇博客中写道,“自3月份以来,数以百万计的开发人员访问GPT-4 API,利用GPT-4的创新产品的范围每天都在增长。” 今年3月,OpenAI正式发布GPT-4,该模型可以接受图像和文本输入来生成文本(包括代码),并在各种专业和学术基准上达到“人类水平”,这是对其前身GPT-3.5的改进,后者只接受文本输入。与过往GPT模型一样,GPT-4是使用公开可用的数据进行学习训练的,包括来自公共网页的数据以及OpenAI许可的数据。 GPT-4在上下文窗口方面保持了之前的领先性,默认为8k个token(token是模型处理文本的基本单位),上限为32k个token。一般来说,上下文窗口更大的模型越能记住最近对话的内容,而窗口较小的模型在对话过程中容易丢失上文内容,导致它们偏离聊天主题。 支持任何用例 OpenAI 文章指出,“我们设想未来基于聊天的模型可以支持任何使用案例。” OpenAI还计划推出GPT-3.5 Turbo,DALL·E和Whisper的API接口。GPT-3.5 Turbo是OpenAI的另一个文本生成模型之一,但功能较GPT-4较弱;DALL-E 2是OpenAI的图像生成模型;而Whisper是该公司的语音转换文本模型。 目前图像理解与分析功能还没有提供给所有OpenAI的客户。据悉,OpenAI正在与一家名为“Be My Eyes”的合作伙伴进行测试,但它还没有表明何时会向更广泛的用户群开放。 OpenAI还表示,在未来它将允许开发人员用自己的数据微调GPT-4和GPT-3.5 Turbo,这一功能或将在今年晚些时候全面实现。 即将淘汰和替代的API 值得注意的是,即使是当今最好的生成式人工智能模型之一,GPT-4也仍不完美。它还会对事实产生错误认知,有时还会“很自信”地犯一些推理错误,并在一些复杂问题上出现了失败。 对此,OpenAI宣布将在Completions API中淘汰几个旧版模型,未来的模型将侧重于Chat Completions API,作为该公司优化计算能力的一部分。 下图是OpenAI宣布淘汰的旧模型,以及替代它们的新模型: OpenAI在6个月内会淘汰这些Completions API的旧型号,目前旧API仍然可以访问,从今天开始,该公司将在开发文档中将其标记为“遗留”。从2024年1月4日开始,旧的Completions API将不再可用。 GPT-4 主要功能介绍 1 创造力 GPT-4比以往任何时候都更具创造性。可以生成、编辑并与用户一起迭代创意和技术写作任务,例如,创作歌曲、编写剧本或学习用户的写作风格进行生成内容。 2 视觉输入 GPT-4可以接受图片作为输入并生成说明、分类和分析。例如,输入一张包含鸡蛋、面粉的图片,然后加上一句“我用这些原料可以做什么?” ChatGPT会回答:你用这些原材料可以做很多选择:煎饼或华夫饼、可丽饼、法式吐司、 煎蛋卷或菜肉馅煎蛋饼、乳蛋饼 奶油冻或布丁、蛋糕或纸杯蛋糕、松饼或面包、饼干。 这只是几个典型的例子,人们发挥想象可能做更多的东西。 3 更长的上下文处理 GPT-4能够处理超过25000个单词的文本,允许使用长格式内容创建、扩展对话以及文档搜索和分析等用例。例如,可以直接将链接加入到提问内容中。 更安全的ChatGPT 根据OpenAI的说法,GPT-4比以前的任何AI系统“更具创造力和协作性”,具有更广泛的知识库,并且更擅长解决问题。 特别是GPT-4作为一个多模式系统,除了处理文本之外,它还接受图像作为输入。 GPT4在结构化问题解决方面实现了突破。它目前可以提供分步式说明,例如可以回答如何清洁水箱的系列方法。 在模拟律师考试中,GPT-4在考试中达到了排名前列。 GPT-4目前可以处理超过25000个单词,更加适合生成成更大的文档和分析数据。OpenAI亦表示,其数据是截至在2021年3月,GPT4将不会在自己的经验中学习,新的GPT5将成为全新系统测试运行。 OpenAI表示,新的AI系统是基于对抗型测试中学习经验,还有对ChatGPT的数据反馈。该公司说GPT4在事实准确以及可操纵性方面优于前一版本GPT3.5。 GPT-4在常用的机器学习基准测试中,也比3.5高出16%,在多语言任务上比3.5高出15%。 OpenAI表示,该公司团队开发的预测GPT-4在某些领域的全新方法,使用的模型计算量仅为GPT-4的千万之一。 在AI能力与安全方面,OpenAI表示还待解决:“我们正在积极努力,加大开发方法,为社会提供更好的指导,以了解对未来系统的预期,我们希望成为人工智能领域的共同目标”。 输入与性能

Read More

Google发布 Gemma 两个新变种:CodeGemma 与 RecurrentGemma

Google 宣布正在扩展 Gemma 人工智能模型系列,推出两个新型变体,一种用来代码生成,另一种用来推理。  对于代码生成,它发布了 CodeGemma,提供智能代码完成与生成。Google 声称,它能够一次生成整个代码块。  据Google研发团队称,CodeGemma 接受了来自在线文档、数学和代码高达 5000 亿个令牌的训练,并且可以与多种流行的编程语言一起使用。  它本身有多种不同的变体,包括专门用于代码生成和完成的 7B 预训练版本、擅长代码聊天和指令跟踪的 7B 指令调整版本以及用于在本地设备上快速完成代码的 2B 预训练变体。  而 RecurrentGemma 其目标为改进更高批量尺寸的推理,这对研发人员特别有用。 它提供较低的内存要求,使其可用于生成内存有限的设备样本。由于内存使用量较低,它还可以以每秒更多的令牌处理更高的数据批量尺寸。  目前,这两个模型现在可以在 Kaggle、Hugging Face 和 Vertex AI Model Garden 上试用。 Keyword: 客服机器人