企业在介入生成式AI应用时会思考的问题,这一页归纳得挺好,当然了,这也是来参加这个会的目的吧?
- 什么样的User Case真能帮到业务?(重点是“真”)
- 如何衡量一个生成式AI User Case的成功?(投入产出,未来,明的利益,暗的优势等等)
- 如何选择大模型去构建应用?(企业自身必须要有靠得住的AI咨询方)
- 如何保证企业私有数据不被大模型吸收?(这些问题开始就有较多的技术解决方案了)
- 我们缺乏高质量的数据怎么办?(买吧,但是还是要有质量标准)
- 构建生成式AI应用工程化的挑战有哪些?如何克服?
- 如何去购买xx加速去做生成式AI User Case的实验?(还是实验,现在让资本市场很短视的,不大允许费资源只是做个实验)
- 模式适配/调优,Prompt Engineering/RAG/Finetune用哪种方法合适?(细节,专业的问题,还是要有专业咨询或内部专家)
- 如何设定Guardrail(护栏)为负责任的生成式AI应用?(先把合规性准备好)
- 构建生成式AI应用需要团队的Skills有哪些改变?(目前的回答是有的,但是答案本身也在动态更新中)
不得不说,是不是刻意留了不少英文单词在里面,导致读起来不大爽。
接着是讲端到端构建AIGC应用的关键路径:
- 应用范围:定义使用场景与用例
- 模型选择:选择现有基础模型或预训练自己的模型
- 模型适配和模型调整:Prompt Engineering + 知识增强 + 微调 –>评估效果
- 应用程序集成:部署模型及运行推理 –> 构建由基础模型驱动的应用程序
几种适配调整的成本与效果的排列,原图是平面坐标图,改成顺序排列:
- 成本:RAG < Prompt Engineering < 预训练 == 微调
- 效果:PE < RAG = 微调 < 预训练
预训练当然好,但优质数据贵啊
AIGC的业务风险:
法律/监管/偏见/幻觉/隐私保护/问责制/业务透明度/滥用/有害内容/知识产权保护
ISV和SI就不罗列了。天天变的东西。
AIGC工程化“最后三公里”的挑战:
UI用户界面开发(用户体验) / 工具链 / 模型调优(持续的?) / 数据工程(提取、清晰、治理、数据模型) / 云基座(这里就涉及到AWS提供的系列支撑了)