即刻App年轻人的同好社区
下载
App内打开
AndrewChan
362关注304被关注0夸夸
出海产品|AIGC|增长
在Mapify做增长
AndrewChan
2月前
最近在build的产品,今天在ph发布,欢迎大家支持!

orange.ai: 长期记忆是 AI 行业 2025 年最重要的探索方向之一。 今天看到心识宇宙联创 KissonL 离开 mebot 之后,第二次 AI 创业的新产品 Tanka(TankaChat),号称要做企业的首个 “AI首席记忆官(Chief Memory Officer)”。 它要解决的最大痛点是团队知识的流失和组织内的低效沟通。基于自研的 AI 长期记忆技术,Tanka 聚合和分析跨平台的沟通协作历史数据和上下文,提炼工作重点、待办任务以及发送个性化的AI智能回复。 平时人们客户沟通时,因为客户使用的聊天工具很多,所以消息散落在各种客户端里 Email,What'sApp,Slack,Discord,Telegram 等等。 Tanka 把这些通讯工具里的消息全部整合与自动分类,并组织成为形成自己的长期记忆。 有了这些数据作为长期记忆,就有了很多新的可能性。 比如 smart reply,AI 根据上下文进行智能回复,大大提高回复客户消息的效率。 比如自动整理群聊记忆,设定目标和重点,AI 会自动在群聊中抽取相关信息作为记忆。 Tanka 的长期记忆跟以前的 chatbot 的单人长记忆不同,强调的是属于团队的集体长期记忆,技术难度更高,应用场景也更多。 团队使用得越多,这个团队的记忆库就越丰富越有用,相当于团队在持续训练自己的第二大脑。特别适合需要对接大量客户和 agency 的团队。 Tanka 现在限时开放免费注册,可以在这里体验 https://tanka.onelink.me/shoD/ui2gmwnu

00
AndrewChan
2年前
在任何输入框调起大语言模型来润色、回复、发散

CoChatter Keyboard

00
AndrewChan
2年前
Apple Vision Pro太帅了。。。
最震撼的这个手指交互、自动透光展示用户的沉浸状态
这些如何让产品不那么wacky更能融入日常生活的交互定义
希望快点到手玩一下
10
AndrewChan
2年前
苹果也发布了自己的AI键盘🫠
刚做的CoChatter AI prompt 键盘直面苹果竞争

不过我们可以和场景结合推荐和搜索AI prompt
让最符合场景的机器人都在你的输入法里🤖️

(并且还蹭了Chatgpt官方APP的热度,可以直接在我们输入法里搜索prompt

不过键盘真是太卷太难了
高频,用户体验要求高,用户切换成本高,商业化难
小团队做出海的体验还很不完善,现在只有英语键盘
期待各位大佬体验提出宝贵意见

认知迭代以后的更容易商业化的产品也在计划中了🙃
这个输入法就当作是相信从GUI到LUI过程中输入法会是入口级产品的一个下注吧,也会一直更新的

#WWDC23
01:31
31
AndrewChan
2年前
终于要来了🤩
原动态已删除
00
AndrewChan
2年前

哥飞: 一句话搞清楚微调 fine-tuning 和嵌入 embedding 的使用场景: 如果你想实现记忆功能,用 embedding ,如果想给模型增强或者增加能力用 fine-tuning 。 如上下文记忆、ChatPDF、ChatDoc、智能客服、虚拟女友、虚拟人等等,都需要用到记忆功能,那么就用 embedding 。 如写梗、写笑话、写诗、写对联、模仿写作风格,都属于增加新能力或者增强已有能力,就要用 fine-tuning 。 继续把回答群友提问搬过来,其实是老生常谈话题,但是可能会有人不知道,所以继续科普。 @DemoChen 问:好奇一个问题,用向量化的话,用户提问和向量数据库匹配后,找到最相关的 Top N ,提交给 chatGPT 这个是利用 messages 字段吗 我答:topN 这里的 N 不是指长文档,而是短文本。所以第一步,把长文档拆分成短文本。 举例可以按照自然段拆分,如果自然段太长,还可以继续拆分成更短的。一般每个短文本300字左右。 所有的一切都是围绕着官方文档的限制去做的,官方文档只提供这个接口,那就只能用这个接口。接口限制了 token 大小,才会用上向量方案。 所以最后找出来的就已经是短文本了,可以整个提交给gpt。 @效威Fernando 问:把embedding用来增强LLM的记忆其实是两步嘛 第一步 Embedding其实是把原始文本(称为文本A)转成了向量 第二步是: 在文本向量中匹配出与问句向量最相似的top k个 -> 匹配出的文本(称为文本A`)作为上下文和问题一起添加到prompt中 -> 提交给LLM生成回答 那么A 跟 A` 是一模一样的吗? 我答:长文档,假设ID是 doc123 ,假设切分成10个文本,你给每个短文本设置一个ID,假设是 doc123_text01 ~ doc123_text10 调用 embedding 接口,为每一段短文本生成向量 。 假设你把向量存储到文本文件里,可以这样存,用 jsonline 格式,一行一条数据 {"textID":"doc123_text01","vector":[这里是向量数组1]} …… {"textID":"doc123_text10","vector":[这里是向量数组10]} 使用时,把 jsonline 文件整个载入到内存里。 把用户的提问也调用 embedding 接口转成向量,拿着提问的向量,去内存里遍历之前的所有短文本向量,计算每个短文本向量与提问向量的距离,排序,找出向量距离最近的3个向量的短文本ID。 再拿着短文本ID去数据库找出对应的文本。 再把文本和提问放到 mesages 里去。 这是简单实现,如果你的短文本数量在一两万条级别,那么全部载入内存就是最快的方式。 你也可以用 langchain ,搭配向量数据库,向量搜索引擎使用。

00