Skip to content

Latest commit

 

History

History
251 lines (200 loc) · 20.7 KB

lib-ai-app-community-chat-conversation.md

File metadata and controls

251 lines (200 loc) · 20.7 KB
title tags created modified
lib-ai-app-community-chat-conversation
ai
chatgpt
community
conversation
2023-04-16 10:02:33 UTC
2023-04-16 10:02:58 UTC

lib-ai-app-community-chat-conversation

guide

  • pm-ai-chat

    • 与ai或bot的对话可参考类似产品的设计和api,如chatgpt、copilot
  • HuggingFace

    • 魔搭社区
      • 汇聚各领域最先进的机器学习模型,提供模型探索体验、推理、训练、部署和应用的一站式服务

discuss-stars

  • 根据过去半年的观察,我认为 2024 年 Chat 领域的第一个交互范式应该初步成型了 —— 我暂且称之为 Chat Portal(对话模态窗)。

  • https://x.com/arvin17x/status/1809847312187027628

    • 无论是最近大火的 Claude Artifacts, 还是上半年 ChatGPT 上线的 Excel 表格编辑、 Dall·E 图片改写,亦或是社区中去年就有的 ChatPDF 等,所有让人一眼亮的地方都在于超脱对话框的富模态交互方式。
    • 比起 chat, GUI 可以大大提升用户交互的便利性。但 Chat Portal 与纯 GUI 不用,用户又可以灵活地在对话与 GUI 中自由切换,灵活性极佳。
    • 因此我们在 LobeChat Cloud 中做了一个初步尝试 —— Cloud 专享搜索插件。用户可以采用对话的方式快速获取搜索结果,当需要进行深度检索时,又可以打开 Portal ,用搜索 GUI 重新搜索结果并总结。同时又可以将搜索到的内容发送回对话窗口中继续进行下一步的讨论。
    • 这个高级搜索插件会是 Cloud 独有的。不过这种富对话的交互模态已经在开源版中集成了,后续把 DallE 插件也支持上这种交互方式。
  • Datou 老哥说的没错,叫成「富对话」更好

  • 这就是富对话 对应原来的简单对话,直接有 ui。 同时有了对话的灵活和 GUI 的直观

  • NotebookLM 也属于这个方向。

  • GPT3.5没开源,但可以免费用了,无需注册

  • https://twitter.com/nash_su/status/1774930531165315286

  • 数据截止到22年,感觉贼落后

  • 一开始就能免费用吧?不过现在是免登陆用了,更进一步了。

  • 现在RAG+LLM那套太成熟了…亲自体验两百行代码就可以实现一个包括前端在内的定制化Chatbot(比如某个人/某个领域的定制化知识库)。

  • https://twitter.com/VoidAsuka/status/1768328842056499654

    • 从完全不懂这一套的小白程序员从开发到部署两小时就能搞定,反而还是爬数据、洗数据花的时间更多…果然数据是新时代的黄金
    • Langchain + Streamlit 几百行搞定
  • 不是成熟,是本来就简单吧 不用langchain不差哪里的,只是他更全

    • 简单就是成熟的体现之一啊
  • 搭起来很简单,做到效果好很难,做一套评测标准也很难

  • 就是chatbot这个形态有点不三不四

  • 用 Excel 实现了一个简易的 GPT2,可以下载:不过特别大,有 1.25 个G

  • https://twitter.com/vikingmute/status/1768452277600387161

  • 👣 GPT 回答标准模板:

  • https://twitter.com/kk_shinkai/status/1767841511516082470 1、把问题用自己更啰嗦的语言复述一遍; 2、大篇幅地介绍提问里那些你显然非常熟悉而且完全没问的背景概念; 3、像当代大学生写有字数要求的毕业论文那样回答你的问题 (如果运气好的话偶尔可以从这部分里抠出来明明一句话就能说明白的答案); 4、一段仿佛是在凑字数的综述;

  • Chat interfaces won't supersede GUIs for most purposes.

  • https://twitter.com/msimoni/status/1732439305530851679

    • Clicking buttons/menus requires much less effort than entering text into a chat, esp. mobile.
    • Voice input won't fly because people use computers in public/social situations, and don't want others to hear what they're doing.
  • 💡 Embeddings: What they are and why they matter

  • https://twitter.com/simonw/status/1716449601505657224

  • I've done some cool project with embeddings in computer vision a few weeks back

  • AutoGPT现在超火,它是一个由开发者 Significant Gravitas 推出的项目,​可以根据用户设置的目标,​使用 GPT-4 自动帮助完成任务。

  • https://twitter.com/duanzi/status/1647284362541662213

    • ​用户只需提供 OpenAI 的 API Key,​AutoGPT 就可以根据用户设定的目标,​采用Google搜索、​浏览网站、​执行脚本等方式帮助用户完成目标
    • utoGPT 最大的特点是突破了现有的 GPT 只能做文本方面的任务的限制,​可以利用各种工具来完成目标。​AutoGPT 背后接入的语言模型可以是 GPT-4 或 GPT-3.5 的 text-davinci-003。​作者的聪明之处在于将各种操作变成命令,​让 GPT-4 模型选择,​然后根据返回的结果进行操作
    • AutoGPT 使用了一些技巧确保任务完成地更加有效,​如使用列表保存历史发送的信息,​并在每一次请求token 允许的条件下发送最多的历史消息给 GPT-4。​AutoGPT 有很多用例,​早期用户已经能够使用它来做各种各样的事情,​包括通过手机生成软件代码和为网站生成 SEO 审计。​它还可以用作互联网搜索和规划
    • AutoGPT 可以完成的任务或者决策比 HuggingGPT 更强。​要运行AutoGPT,​用户需要 Python 3.8 或更高版本、​一个 OpenAI API 密钥和一个 PINECONE API 密钥。
  • AutoGPT 的 GitHub 星标超过了 Bitcoin,只用了16天。 最简单的理解它的方式就是把AI当人了。 人最厉害的是什么?使用各种工具。 怎么使用工具?让LLM来当总指挥调用其他的API工具。 在哪儿找到工具?HuggingFace 不是有一堆模型吗。

  • One of the biggest weaknesses of ChatGPT/LLMs is that it just tells you stuff but doesn't actually do anything.

  • https://twitter.com/DavidKPiano/status/1636020080826896389

    • So the only jobs it will be able to replace are the majority of management jobs.
  • 多轮问答跑了一天,目前效果很稳定,可以来解释一下是如何实现的了。

  • https://twitter.com/xicilion/status/1647408696312602624

    • 问答通常的实现,embedding -> search -> llm,连续语义在第一步就丢失了。
    • 我的方案是在前面,先让 ChatGPT 解释问题,返回关键词,流程变为:explain -> embedding -> search -> llm。
  • 两次 llm 会不会慢了点

    • 第一次几乎不推理,很快。
  • 类似langchain conversational chain里面的CONDENSE_QUESTION_PROMPT,让llm先对用户的提问结合历史进行重新的阐述,从而提高搜索命中率

    • 去看了一下,确实很
  • 感觉还是用llm转述问题会更好些,关键词任然会丢失语义,比如用户问一个没有关键词的问题。

    • 我对比了一下,效果一样。没有关键词也不会迷失,ChatGPT 会按照要求根据上下文补齐。
  • 很好的思路,本质上就是通过对每句话进行句子表述上的补全,让每句话都是独立且完整的表述,保证了能进行可靠的向量搜索

  • plugins 的思路也类似这样

discuss

  • chrome is bringing ai directly to your browser with window.ai ! it runs locally, works offline, & it's fast

  • https://x.com/nicoalbanese10/status/1806377270518391177

    • it's compatible with @vercel AI SDK, so you can start building with it today
    • try it out with our open-source @nextjs chatbot
  • Just use Page assistant from Ollama repository on chrome white Powerfull features

  • gpt 4估计小调了一些agent场景,最近一些本来就需要交互的问题上,它开始表现的更像一个agent。

  • https://x.com/SuJinYan123/status/1801839116189110590

    • 比如我让它写一个python读取csv然后用lru跑命中率,它没有直接给我代码,先问我数据文件路径,然后缓存大小。
    • 还有数据处理,能自动执行,然后根据报错,自己分析一下,然后改代码,然后继续执行,细看代码还写得蛮不错,理解了我的意思。体验很好啊。
  • https://kimi.moonshot.cn 推荐一个号称国内最强 ai, 超大上下文,还免费。谁了解这家公司的

  • https://twitter.com/huangjinbo/status/1768443353417560520

  • 公司: 月之暗面科技有限公司(Moonshot AI)

    • 杨植麟 - 法人代表、主要创始人。杨植麟曾在清华大学计算机系学习,并在卡内基梅隆大学攻读博士学位,师从苹果公司AI负责人Ruslan Salakhutdinov和Google AI首席科学家William W. Cohen。他在自然语言处理(NLP)领域有着显著的贡献,包括发表有影响力的论文如Transformer-XL与XLNet,并在Facebook AI Research和Google Brain有过工作经历
    • KimiChat ,联网搜索和文件总结能力在中文场景确实很好用。
  • 这家公司前不久融了1b

  • 好像里面很多人来自谷歌,创始人是90后,昨天输入三份PDF测试,实测kimi产品上下文能力,超过gpt和Claude了,gpt长了会截断,claude 直接提示超长,kimi正常解答还是对的

  • RAG 路线确实是最可行的了,相当于把审核工作和成本 delegate 给了别的厂商,自己坐享其成。

  • https://twitter.com/laike9m/status/1768537063392231714

    • 不过未来说不准会吃版权官司。
  • 目前kimi差不多是想bing那样用得最多的是知乎的数据。另外公众号数据最值钱了,要是大家都反应过来走RAG线路,腾讯最后是赢家。

  • https://twitter.com/laike9m/status/1768456246154379647

    • kimi目前效果很好了,走的是perplexity路线,先检索过滤过的互联网内容,然后补充AI生成,就是RAG路线。一是减少幻觉,二是直接用网络资料增加中文理解,吊打文心。这个路线真实天才。
  • All these products that pitch about using AI to find insights from your data always end up looking pretty in demos and fall short in reality.

    • This is not because the product is bad, but because there is enormous amount of nuance in DB/Tables that becomes difficult to manage.
  • I couldn’t agree more. I’ve hooked up things to my DB with AI in an attempt to “talk” to it but the results have been lackluster. Sure it’s impressive when it does get things right but I found myself spending a bunch of time adding to the prompt to explain how the data is organized.

  • We did something similar for our reporting service which is based duckdb. Overall it works great, though we've ran into a few things:

    • Even with low temperature, GPT-4 sometimes deviates from examples or schema. For example, sometimes it forgets to check one or another field...
    • Our service hosts generic data, but customers ask to generate reports using their domain language (give me top 10 colors... what's a color?). So we need to teach customers to nudge the report generator a bit towards generic terms
    • Debugging LLM prompts is just tricky... Customers can confuse the model pretty easily. We ended up exposing the "explained" generated query back to give some visibility of what's been used for the report
  • Our primary issue is that our DB is a dynamic Entity-Attribute-Value schema, even quite a bit denormalized at that. The model has to remember to do subqueries to retrieve "attributes" based on what's needed for the query and then combine them correctly.

    • NLQ is a somewhat new feature for us, so we don't have a great library to pull from for RAG. Experimenting, I found that having a few-shot examples with some CoT (showing examples of chaining attributes retrieval) sprinkled around did help a lot.
  • ChatGPT-Next-Web 这个项目太好用了,

  • https://twitter.com/_Xheldon/status/1731897455145263340

    • 部署在软路由上,Docker+内网穿透+腾讯云 Nginx 转发(不是必须),给不会翻墙的亲友每人一个访问密码,太赞了!
    • 我二开增加了腾讯云 log,简化了界面复杂配置,比我之前搞的微信小程序好用多了,早知道有这个就不折腾小程序了
  • 想问下你內网穿透用的什么方案,我用的 taikscale,给其他人用还得给他们装客户端

    • tplink 路由器自带的,免费用
  • Anyone figured out the most useful format to feed documentation into a GPT Assistant yet?

  • https://twitter.com/simonw/status/1721714675182899509

    • I've tried PDFs but I'm interested in the optimal format, ideally supporting returning citation links if possible
  • currently i'm preprocessing PDFs into markdown in chunks, I am putting the filename as a header within each file's chunk. I have had the best luck so far with GPT & markdown, will let you know when i've had a chance to play more

  • Many startups just died today. Because OpenAI added PDF chat. You can also chat with data files and other document types.

  • https://twitter.com/thealexker/status/1718445317559902371

  • 目前市面上“用户提供 PDF 文件,得到一个专向 AI 聊天工具” 的产品,哪个效果最好?

  • https://twitter.com/taresky/status/1693112350075965841

    • ChatGPT Code Interpreter 无法顺利阅读 PDF,有第三方插件好用吗?
    • Chatpdf 回答质量很低。
    • Chatbase 还不错,有没有更好的?
  • copilothub 好像针对 ocr 做了一些公式/图理解优化,可以试试?

  • gptbase.ai 不支持理解图片内容,其他大概满足需求

  • 借鉴 json/yaml/toml/markdown 设计,搞了个 pdl 格式(Prompt Description Language),并相比于其他格式,可以最大化节省 Token 数量。

  • https://twitter.com/blackanger/status/1659826017341702146

  • 今天跟一位朋友讨论为什么国产的AI产品已经沦落到到免费都没人去用了,原因总结下来是两点:

  • https://twitter.com/oran_ge/status/1653753194206601216

    • 我的覆盖群体基本人手 ChatGPT/Claude
    • 玩 AI 太多有种疲惫感,阈值拉高了,很难兴奋起来
  • 我拿我的专业最基本的知识问文心,十次里有五次是胡言乱语,都不能算是幻觉了,就是那种你哪怕去百度搜索引擎查都能一秒找到答案的概念,他会瞎说

  • 国产的 AI 对提升生产力帮助并不大

  • is anyone else getting sick of chatbots?

  • https://twitter.com/Wattenberger/status/1653045107266924545

  • Great post. I think the point about “hard to read edits without a diff” can be generalized too: plaintext is a suboptimal data viz for so many LLM outputs.

    • We need diff views, weather widgets, mini maps, 2x2 charts
  • Two cons of using chat bot in async user feedback/bug report:

    • (1) users expect real time response. If you don’t have enough CS resource, it will damage the expectation of users
    • (2) scripted + automatic responses make things worse. Users just want to hit that “talk to human” btn
  • Agree! I think chat corresponds to stage we are in. Many folks feel alone/remote in their daily work & chat feels connective.

    • I like the concept of a toolbar of Code Brushes - but it lives very unnaturally in the UI right now
    • totally agree ❤️ Brushes was a really rough initial exploration, but someday I'll fix up the ui and it should work its way into other GH experiments!
  • I hate when chatbots are used as customer support, and there is no option available to just talk to a human

  • Code Hike <Chat/> prototype (it's the UI, not the AI)

  • Yep. Chat is not the right interface for AI. It has the same discoverability problem as voice assistants and the terminal — it’s hard to learn the capabilities of the system without trial and error or reading a manual. Eventually the tech just will be integrated into real UIs.

  • 这几个月一直都没找到 Infra 里面有什么可以真正利用 LLM/ChatGPT 的场景

  • https://twitter.com/xxm459259/status/1650713723235885056

  • 给彩笔工程师每人发个账号…目前看起来这个比任何其他的都好使。

  • 写邮件给老板们吹自己 impacts

  • LLM-based FAQ

  • 在 postmortem 中甩锅,在 newsletter 中邀功

  • 并不那么Open的AI生态挑战者可能已经来了:@huggingface开源了自己30B参数的chatbot(不仅仅是模型),

  • https://twitter.com/cryptonerdcn/status/1650952444745240577

    • @NVIDIAAI的研究者盛赞如果chatgpt是苹果,那么HuggingChat之后的生态环境可能就是安卓。(注意这不是之前公布的HuggingGPT,那是用来协调各种模型的)
  • 帮助我最多的 5 个技术相关 ChatGPT Prompts:

  • https://twitter.com/Tim_Qian/status/1650733864510459905

    1. 生成正则表达式
    2. 生成 Cron 表达式
    3. Tailwindcss 专家
    4. 英语老师
    5. 帮我写 SQL
  • 其实之前不仅仅关注LLaMA生态的一些开源大模型,国内的一些开源大模型也在关注,这里分享几个最近挺火的LLM。

  • https://twitter.com/xinqiu_bot/status/1645616019103428609

  • https://github.com/THUDM/ChatGLM-6B

    • 开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。
    • 结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)
  • 除了基于GLM的ChatGLM,另一种基于RNN的ChatRWKV

  • Is it fair to think of LLMs as a database with a natural language query interface? Where does the database metaphor break?

  • https://twitter.com/dvassallo/status/1644914034905579526

  • The most interesting counter-argument is that LLMs seem to be practically 👀 read only. There’s only short-term memory (so far), and no insert/update equivalent.

    • The rest still seems to stand. There’s data, a query, and a result derived from the data and the query algorithm.
  • LLMs create data in response to queries, unlike traditional databases which simply retrieve data.

  • AskBend 所有训练数据都是英文的文档,但是它可以非常自然的使用中文来回答。有没有朋友科普一下为什么🥵,不同的语言输入对于 embedding 的计算没有影响吗?

  • https://twitter.com/redsun_diamond/status/1643904510883135490

  • 没影响,因为是基于语意的不是基于语言的。【virtual thread】和【虚拟线程】 这个两个词的embedding差不多,余弦90%的样子。

  • 没影响,中英文embedding后在同一个vector space

  • 多语言的embedding模型是相互关联的。比如中文的我有一个苹果和i have an apple的embedding的相似度数值是很高的

  • 因为第一层和最后一层都走的 openai, embed 走的是 open ai 的 text-embedding-ada-002 返回数据库查找是根据你的语言返回 vector 而这个 vector 的拿回的 text 也是用来问 openai 的。所以语言在这里相当于走的 openai 的 embed 猜测不同语言在 vector 里算 distance 是有差异但不是那么大的。

  • 要分开来看,普通句子的差别不大的。但是一些复杂场景下的中文预料就不一样了。比如,你见到一个仇人,你问她,你吃了吧?跟你见到一个你喜欢的人,你问她,你吃了吧?所以还是要用针对性的语料进行训练吧。然后大模型神经网络本身也很容易一通百变的,到输出的时候只是组合单词

  • 文本模型爆发比图像晚了大约半年,所以那边发生的事情这边貌似在重新发生一次…从那边可以知道的经验至少是:prompt不会成为壁垒

  • https://twitter.com/virushuo/status/1632405930015899648

  • 开源模型会大力度搅局。 一部分人疯狂 hack 只是为了好玩,另一部分疯狂想着快速收割韭菜。

    • 闭源有点自研的AI商业应用的生命周期可能只有几个月。API套壳的更可能是以周计算的。更别说 prompt 了。
  • 对于我来说,壁垒是算力,毕竟图像要本地计算足够才好玩

  • 那什么是壁垒?还是数据?

  • 搜索引擎的范式转移 PageRank -> ModelRank

  • https://twitter.com/Tisoga/status/1623916651996680193

  • 对话式 AI 目前最显著的一个问题就是没有信息引用来源,这有很大的安全隐患!大规模语言模型并没有像人类大脑这样创造知识结构,而是训练数据源的神经网络权重,虽然提升参数规模可以神奇的产生语言逻辑的抽象概括能力,但这毕竟不是通用智能