E3. AI: 友还是敌?探索担忧与放心 - 人工智能的现实与幻想

00:00
14:24
主播信息
老于的商业科技图谱

老于的商业科技图谱

人人都是蜻蜓主播,欢迎关注老于的商业科技图谱
关注
揭秘科技
94
欢迎来到我的科技播客!在这个快速发展的科技世界中,理解和跟上科技的步伐并不容易,能够穿透表象看到本质更为困难。我的目标是用通俗易懂的语言,将复杂的科技概念和商业话题讲解得明明白白。科技不应该只是少数人的专利,每个人都应该能够理解和享受科技带来的好处。 主播老于在科技行业工作超过20年,曾在多家头部公司和独角兽企业担任要职。他在大型企业和初创公司皆有着将业务从零到一发展至盈利或全球过亿日活用户的经验。与许多科技从业者不同的是,老于曾直接负责研发、产品管理、销售运营、战略规划、合作伙伴拓展以及业务盈亏,涵盖了现代科技公司的所有方面。 老于对人类历史上规模最大的人工智能产品和用户反馈有着深刻了解,这使他在这一领域具备独特的洞察力。工作之外,老于热衷于心理学,并通过这一爱好获得了对人类行为和思维模式更深入的理解;老于还是一名规律的阿斯汤伽瑜伽练习者,这使得他思维敏锐、内在平静。
APP内查看主播
节目详情

OpenAI发布新的图像生成工具Sora之后,再一次在全球激起了很多人对AI的担心。在twitter上当天有人评论说“gg Pixar”,然后Elon Musk跟帖说“gg humans”.  gg在英语里是good game的首字母缩写,他是一种非常礼貌的方式来表达“游戏或者比赛结束了,同时对对手的体育精神表示敬仰和尊重;gg有时候也是一种讽刺或者挖苦的方式,来表达对比赛结果的沮丧或受挫。无论钢铁侠Elon Musk想表达的是哪一种意思,或者两者皆有,都足以表明他对Sora进展的关注。

OpenAI关于Sora的产品页面也大篇幅提到了“Safety”,主要指对内容的担心,OpenAI用到了“misinformation, hateful content, and bias”,就是“错误信息,仇恨或恶毒内容,以及有偏见的内容“。大模型几乎是用全网内容来训练的,所以用起来才给人一种什么都懂的很厉害的感觉。但正如OpenAI在Sora的产品介绍页说到的,网上的内容存在”错误、误导及偏见”,用这样的内容训练出来的大模型,其输出的内容难免会存在同样的问题,英语里有句谚语叫“gabage in, gabage out“,这句话最早就起源于计算机界,用来形容计算机系统或算法的输出结果取决于输入数据的质量。如果输入的数据是垃圾(garbage),那么输出的结果也将是垃圾。这个谚语强调了数据的重要性,无论多么复杂的计算机系统或算法,如果输入的数据质量不好或有误,那么输出的结果也会是不准确或无效的。我想这也就是为什么OpenAI在”Safety”,也就是安全性上的担心,主要提了内容的“错误、误导和偏见“。

AI是否能取代人类的工作,和某个人是否能取代另外一个人的工作,是一个道理。一个人如果要取代另外一个人的工作,这个人需要确实能比另外一个人把工作做的更好、更快、或者薪水更低所以能节约成本;在机器和人类对比上,机器还有另外两个人类无论如何无法比拟的优势:首先机器通常不需要休息;另外机器尤其擅长反复一直做重复的工作、不停的做重复的工作而不知疲倦不出错,人类就不行,再厉害的操作员连续作业也可能会因为疲劳、厌倦等原因而出错。AI本质上也就是机器,对那些AI能够比人做的更好、未来能更低成本的职业,确实是有取代的条件了。但目前大模型还在不断训练中,训练成本高昂,还需要有商业模式(如何挣钱)才能广泛推广。

如果不想被其他人取代的话,就要有自己不可或缺的价值,就要比其他人做的更好。回想一下Sora生成的那48支视频,时尚女性走在东京街头虽美,但有了Sora这样强大的工具,每个人都可以制作出如此精美的视频;无人机视角拍摄的海浪冲击美国加州Big Surr的悬崖虽壮观,但每个人都可以无需飞到加州、就可以立刻制作出如此震撼的视频。反倒是在那两艘在波涛汹涌的热咖啡里上下翻腾的海盗船,给我留下最深刻的印象。Sora视频大模型再厉害,目前也是要靠人类来输入prompt文本、根据这个具体的prompt文本生成相应的视频,所以输入的prompt的不同,就会生成不同的视频,创意不同、能够写出来的prompt不同,最后生成的视频也会截然不同,创意的价值尤为重要。

展开
大家都在听
评论(0条)
快来抢沙发吧!
打开蜻蜓 查看更多