近期AI…4

企业在介入生成式AI应用时会思考的问题,这一页归纳得挺好,当然了,这也是来参加这个会的目的吧?

  • 什么样的User Case能帮到业务?(重点是“真”)
  • 如何衡量一个生成式AI User Case的成功?(投入产出,未来,明的利益,暗的优势等等)
  • 如何选择大模型去构建应用?(企业自身必须要有靠得住的AI咨询方)
  • 如何保证企业私有数据不被大模型吸收?(这些问题开始就有较多的技术解决方案了)
  • 我们缺乏高质量的数据怎么办?(买吧,但是还是要有质量标准)
  • 构建生成式AI应用工程化的挑战有哪些?如何克服?
  • 如何去购买xx加速去做生成式AI User Case的实验?(还是实验,现在让资本市场很短视的,不大允许费资源只是做个实验)
  • 模式适配/调优,Prompt Engineering/RAG/Finetune用哪种方法合适?(细节,专业的问题,还是要有专业咨询或内部专家)
  • 如何设定Guardrail(护栏)为负责任的生成式AI应用?(先把合规性准备好)
  • 构建生成式AI应用需要团队的Skills有哪些改变?(目前的回答是有的,但是答案本身也在动态更新中)

不得不说,是不是刻意留了不少英文单词在里面,导致读起来不大爽。

接着是讲端到端构建AIGC应用的关键路径

  1. 应用范围:定义使用场景与用例
  2. 模型选择:选择现有基础模型或预训练自己的模型
  3. 模型适配和模型调整:Prompt Engineering + 知识增强 + 微调 –>评估效果
  4. 应用程序集成:部署模型及运行推理 –> 构建由基础模型驱动的应用程序

几种适配调整的成本与效果的排列,原图是平面坐标图,改成顺序排列:

  • 成本:RAG < Prompt Engineering < 预训练 == 微调
  • 效果:PE < RAG = 微调 < 预训练

预训练当然好,但优质数据贵啊

AIGC的业务风险

法律/监管/偏见/幻觉/隐私保护/问责制/业务透明度/滥用/有害内容/知识产权保护

ISV和SI就不罗列了。天天变的东西。

AIGC工程化“最后三公里”的挑战

UI用户界面开发(用户体验) / 工具链 / 模型调优(持续的?) / 数据工程(提取、清晰、治理、数据模型) / 云基座(这里就涉及到AWS提供的系列支撑了)