项目记录
约 608 字大约 2 分钟
2025-12-15
项目经验整理
Hiknow知识分享平台
项目描述
Hiknow知识分享平台深度融合AI大模型与IM长连接集群,提供流畅实时对话。基于RAG技术,智能关联企业知识库,实现精准问答、文档摘要与知识推荐,并结合AI创作与自动标签功能,全链路提升知识获取与生产效率。
核心技术栈:
Spring、Spring Boot、Spring Cloud、Mybatis、Mybatis-Plus、Redis、Redisson、Spring AI Alibaba、Netty、ElasticSearch、Milvus、MySQL
主要职责:
- 为满足平台海量用户实时交互需求,基于Netty+SpringBoot+Nacos搭建高并发WebSocket集群,实现单机承载连接数10万+且消息延迟稳定控制在100ms以内。
- 针对分布式环境群聊消息同步挑战,通过Redis Pub/Sub消息总线与异步确认机制,实现2000人群聊消息端到端平均延迟稳定在15ms以内。
- 为解决读扩散方案查询延迟高的问题,采用写扩散策略异步预生成未读消息,使消息列表查询延迟从200ms降至20ms。
- 为提升知识库检索效率,引入ElasticSearch设计多字段索引与权重优化,实现搜索响应时间P99控制在100ms以内且召回率达95%。
- 为提升用户问题解决效率,通过Spring AI Alibaba接入通义千问大模型,使问题单提交率下降60%且平均问答耗时<2秒。
- 为增强大模型专业领域知识准确性,采用RAG技术结合Milvus向量检索,实现检索精度MRR@5达0.89,故障定位准确率提升至92%。
项目难点
⭐如何保证在大模型问答中响应时间在2秒以内?
关于这个问题我们主要有两点优化:
首先是用户体验上的更新,让用户降低对我们这个延迟的一个感知,这里我们主要使用SSE协议来将大模型输出的内容返回给客户端。虽然整体上的响应时间没有变化,但是对于用户而言可以更快的看到这个输出的内容,也能让用户得到更好的一个体验。
更小的模型
私有化部署模型
小模型微调
流式
前端有一些小的展示信息