考虑一下生成式AI不应垄断于大企业、高算力+能源的拥有者手中,我们需要让它更民主化,普惠化。
- 获取成本低,而且不应因为地缘政治的原因导致墙外或另一边的人用不了
- 界面、工具简单,学习门槛低
- 开源,让更多的人可以参与
- 有相关的教育以及培训,当然,这些也可以成为本地化的一些商业机会
- 支持多样性,残障人士访问等
- 可去中心化,不依赖于一个特定的中心,比如算力、能源、政策等
- 提供全球合作的机会
考虑一下生成式AI不应垄断于大企业、高算力+能源的拥有者手中,我们需要让它更民主化,普惠化。
AI如果对标人脑的话,可参考人脑的神经元数量:850亿,同样地,GPT3的参数量是175B,两倍于人脑神经元数量。
于是后面再累加参数量意义就不大了。相反,应遵循“小即是大”的原则,针对特点领域做小模型。
目前再吹嘘更大参数可能是资本的炒作需要。
AI落地方面,需要业务专家,他们可以指出问题的关键。
数据的贬值速度相当快,避免持有容易变质的数据而不及时利用。
数字化转型中,AI/算法/软件的战略投入,如果被公司层面认为是IT cost,将是一种失败的信号。
AI的发展趋势:检索–>搜索–>探索
AI的真正意义是释放生产力,让人类不要将时间浪费在重复操作上。
来自参加某商学院的的课程时的一些摘录。
选kimi的答案吧,我比较赞赏的是我标注颜色的部分:
人工智能(AI)作为一种强大的技术力量,对企业家精神和创新能力有着深远的影响。以下是几个关键方面,展示了AI如何解放企业家精神和创新能力:
总之,AI为企业家精神和创新能力提供了强大的支持,不仅提高了企业的竞争力,也为社会带来了更多的创新产品和服务。随着AI技术的不断进步,其在解放企业家精神和推动创新方面的作用将越来越显著。
整理笔记发现这一条,觉得这比ESG之类更值得深入,毕竟是to B的生意啊。
kimi的表现不错,你问他,他就抽取几条搜索到的相关结果,然后用大模型去分析这几个结果的文本,总结出来作为回答。
这样避免了对互联网内容的过度检索和分析。只是根据需要去做事。
找到了 3 篇资料作为参考:正在尝试为您在互联网搜索相关资料…开始获取资料…找到了第 1 篇资料:计算客户终身价值(CLV)必须了解的五个公式-知乎找到了第 2 篇资料:客户终身价值(CLV)如何计算|运营派找到了第 3 篇资料:客户终身价值(CLV)如何计算|人人都是产品经理一共找到 3 篇资料,正在阅读…找到了 3 篇资料作为参考:
客户终身价值(CLV,Customer Lifetime Value)是衡量企业在整个业务关系中可以从单个客户帐户中合理预期的总收入的指标。识别客户终身价值对于企业来说至关重要,因为它可以帮助企业了解客户的价值,并据此制定相应的市场策略、提高客户满意度和忠诚度、优化客户服务和产品开发等。以下是识别客户终身价值的一些关键步骤和方法:
首先,企业需要收集有关客户交易的历史数据,包括购买频率、平均购买价值、购买时间等。这些数据可以帮助企业了解客户的购买行为和偏好。
客户价值可以通过以下公式计算: 客户价值 = 平均购买价值 * 平均购买频率
客户生命周期是指客户与企业保持关系的平均时间长度。这可以通过以下公式计算: 平均客户寿命 = 客户总寿命 / 客户总数
结合客户价值和平均客户生命周期,可以计算出CLV: 客户生命周期价值 = 客户价值 * 平均客户寿命
除了基于历史数据的计算,企业还可以使用预测模型来估算未来的客户价值。这些模型可能会考虑市场趋势、客户行为变化等因素。
识别CLV后,企业可以采取一系列措施来提高客户的终身价值,例如:
企业应持续监测CLV的变化,并根据市场和客户行为的变化进行相应的调整。这可能包括更新预测模型、调整市场策略或优化客户服务流程。
通过上述步骤,企业可以更准确地识别和理解客户终身价值,从而制定更有效的业务战略,提高客户满意度和忠诚度,最终推动企业的长期增长和成功。
本来我对专注于视频生成的sora并没有非常大的兴趣,中文自媒体太high了,动辄中国全面落后云云。其实以stable diffusion之前的表现来说,剩下的再创新只是在窄小的领域里面逐渐调优的过程,不存在大的突破。
sora被顶会退稿也是出于这个原因。那为何sora要出及能出如此惊艳的生成视频效果呢?
应该还是资本使然,资本需要在AI领域上绑架各种资本加大投入,以进一步推动泡沫的盛宴。Open AI应该是已经完全被资本左右,不惜动用大量的算力资源去驱动一个并不具备创新的方向,而只是工程上的堆叠(大白象工程)。
说一下sora没有太大意义的地方在于,我们看过独立日(Independent Day),第一次看的时候觉得太震撼了,原来天地冲撞是这样的场景。
今天,如果你让sora生成一个天地冲撞的视频,它应该是没问题的。
但假如电影史上从来没出现过独立日或者类似的电影,这时候让sora(幻想)生成这样的场景,能做到什么样的效果?
这就是基于已知信息训练出来的结果,它无法超越前人,只是模仿,组合模仿,这种AI最大的对手是China?//laf
转djq师兄(97广东理科状元,FreeWheel CTO)朋友圈的评论:
“
比如说Sora爆红,几篇中文文章基本都是要么车轱辘话说了等于没说,要么就几个名词狗屁不通的拼凑一起,毫无AI痕迹。其实各种基于Stable Diffusion的创新还是不少来自国内的,IP adapter, LCM什么的,但是都算技巧派的。而Sora某种程度上就是Stable Diffusion的升级版本,完美体现了OpenAI大力出奇迹的精神。
Sora的技术报告有13个作者,带头的是两个博士刚毕业和一个本科工作几年的,都是年轻人,据说肝了一年撸出来的。这个项目相当多的数据处理和计算,到PB规模都不奇怪,体力要求不是一般的高,过程还很不确定。Stable Diffusion其实不是一个模型,而是一个带三个模型的pipeline。它的核心就是先用CLIP(也是OpenAI的作品)先把文字转成一个类似于图像模子的东西,然后用U-net(一个类似于U型锁的网络,也是广泛应用的结构)做Diffusion,大致是逐步无中生有根据模子把图像生成出来(但是在一个所谓Latent空间),最后用VAE(这个应该是stability ai训练的一个auto encoder)恢复到像素空间。Diffusion是一个相对比较坚实的数学模型,所以名字带了stable字样。CLIP和VAE都是单独训练的。而Sora估计也是类似的结构,只不过三个模型都换了。VAE对应的他们叫视频压缩网络,U-net则被换成了基于transformer的扩散模型,虽然叫Diffusion Transformer,其实是个误导人的名字,因为本质上是transformer based diffusion,同时把视频分解成时空小块然后tokenize,都是基本操作。而对应CLIP那个condition的生成模型可能也差不多,还用GPT做了增强。所以一年搞这么多,虽然可能没有特别高深的东西,但都是超多工作量。
所以网文说什么这是个transformer多么先进都是胡扯,transformer是个基础模块,OpenAI的模型就没有不用的。Google发明的时候还有encoder和decoder,一个decoder block还有两个注意力层,都被OpenAI简化掉了,就一个注意力加个MLP,然后就往死里加参数和数据,奇迹就出现了。然后condition也不是条件,而更像是用模子来引导或者塑造最终结果的意思,conditioning这个词很难用中文描述。总之Stable Diffusion那一套可以再玩一次。反正就还是attention is all you need。OpenAI主打一个暴力美学碾压一切包括人类。
”
sora指出一个方向,国内也可以在stable diffusion的基础上把几层结构再按需优化,中国也是大力出奇迹的好地方。
这本书是跟着贵系二代群一起团购马老师的亲笔签名版本。
马老师在贵系一直人气和口碑都不错,也确实是人工智能方面传道授业的老师。
这本书总体来说还是通俗易懂,前提是要有较扎实的中学数学知识,理解会简单很多。
由于是初版,会有一两个错字。
也适合家长带着小学高年级到初中的小朋友一起看。
海尔的case
看起来海尔是AWS的一个大客户。展示了AIGC的几个例子:
主要受益是加速设计。
西门子的case
内部业务助手,以及打通业务数据分析的平台。
店匠科技的case
产品模特图的生成(真人模特图替换模特与背景场景)
总结的几个难点有点意思,比如:服装区域的精准分割,残缺人台的骨骼检测优化,精准控制生成过程
企业在介入生成式AI应用时会思考的问题,这一页归纳得挺好,当然了,这也是来参加这个会的目的吧?
不得不说,是不是刻意留了不少英文单词在里面,导致读起来不大爽。
接着是讲端到端构建AIGC应用的关键路径:
几种适配调整的成本与效果的排列,原图是平面坐标图,改成顺序排列:
预训练当然好,但优质数据贵啊
AIGC的业务风险:
法律/监管/偏见/幻觉/隐私保护/问责制/业务透明度/滥用/有害内容/知识产权保护
ISV和SI就不罗列了。天天变的东西。
AIGC工程化“最后三公里”的挑战:
UI用户界面开发(用户体验) / 工具链 / 模型调优(持续的?) / 数据工程(提取、清晰、治理、数据模型) / 云基座(这里就涉及到AWS提供的系列支撑了)
AWS中国区组织了这个生成式AI的高管峰会,其意义在于将他们在AWS上做的AI IaaS及PaaS介绍给之前用云服务不错的客户,一起来挖掘更好的AI SaaS,达到双赢。
基于对AWS发展历程的了解,我相信如果纯粹做SaaS的话,应该不用担心AWS的抄袭问题。
Gartner的演讲嘉宾上来,肯定是标准的Hype Cycle了。
没有细看各种技术点的位置,感觉Gartner已经入魔了,什么行业都搞Hype Cycle,网上一搜,经常有新的图出来,有些位置感觉就是拍脑袋了。
Gartner将AI技术栈格局分成四层:模型——工程工具——应用领域——基础设施和支持
AWS自然是基础设施和支持这一层,而应用领域,是在座的去挖掘,前面两个,有太多AI团队在做了。
企业对AI的关注:
保护投资:AI信任、风险、安全管理(即用AI来增强企业安全)
开发者增强:用AI来增强开发能力
交付价值:AI自动化增强互联劳动力
这三个领域有交错需要有:行业AI云平台、智能化应用、可持续的民主化生成式人工智能
讲得能理解,但原PPT有点诘屈聱牙。
以零售行业为例,AI已经产生的作用:提高生产力、节约成本、提高用户体验、驱动新产品开发、提高准确性、改进型号。
机遇(其实也有不少新的case了):增强搜索向上营销、助理招聘入职、社交媒体情绪分析、供应链优化、增强文本(文案、话术)
制造业方面的也一样是老生常谈(至少对我来说)……不罗列了。
对于生成式AI,建议关注的层面,除了技术栈四个层面之外,
风险与价值:注意偏见、过度投资、合规风险
自研与生态:寻找生态系统中的合作伙伴、培养内部专家
(未完待续)
国内怎么用Open AI的问题
微软和亚马逊都陆续给出相关的答案,使用还是不难的,只要你是Azure或者AWS的正式的商用客户,自然就可以使用±Open AI或者AWS预建的AI平台进行二次开发。
多模态技术
对于不同的AI能力,称之为多模态,多模态相当于人的几种感官:分别处理图像/视频,音频,文本理解。大模型如人的大脑,存储知识并推理,多模态则五官,接收和融合信息,两者结合才是通用AI的发展。
智能体Agent
讲者说智能体是手,其实当时听就觉得不对,智能体是通用AI的多个分身,每个分身处在不同的工作环境下,处理不同的工作任务。这也是我之前提及元宇宙的未来:AI让人类个体可以在不同元宇宙有其分身,个体的财富和能力体现不同元宇宙中的能力。
AI时代设计思考
产品与用户时间的交互会倾向于多模态的方式,而不仅仅是自然语言或图形界面的方式;
大模型时代的产品会融合AI 1.0的千人千面和AI 2.0的生成式特性;
要构建不断增长的数据飞轮,通过数据驱动产品运营全过程。
AI大模型要继续压缩以适应端部署(独立AI)