宝玉
@dotey · 1周前nano banana 画图 Prompt(需要附加参考图,可以修改用户名)
-----
根据所附照片创建一个风格化的3D Q版人物角色,准确保留人物的面部特征和服装细节。
角色的左手比心(手指上方有红色爱心元素),姿势俏皮地坐在一个巨大的Instagram相框边缘,双腿悬挂在框外。
相框顶部显示用户名『Jimmy』,四周漂浮着社交媒体图标(点赞、评论、转发)。
7
14
67
87
29
nano banana 画图 Prompt(需要附加参考图,可以修改用户名)
-----
根据所附照片创建一个风格化的3D Q版人物角色,准确保留人物的面部特征和服装细节。
角色的左手比心(手指上方有红色爱心元素),姿势俏皮地坐在一个巨大的Instagram相框边缘,双腿悬挂在框外。
相框顶部显示用户名『Jimmy』,四周漂浮着社交媒体图标(点赞、评论、转发)。
美国专利商标局(PTO)拟议新规,挑战垃圾专利难上加难。这使得为创新提供动力的初创公司、开发者和开源组织面临风险。在 12 月 2 日评论期结束前,请大胆发言并分享您的担忧。⏳ github.blog/news-insights/…
开始使用这些关键更新进行构建:
> thinking_level:管理模型的推理深度
> media_resolution:用于对视觉处理进行精细控制
> Thought signatures:用于在 API 调用之间保持推理上下文
> 搜索 grounding:价格降低 & 更多
赛博手绘风格 Lovart PPT 生成提示词:
帮我根据下面这个文章做一套中学生都能理解的PPT。
先写1个PPT大纲,规划出每一页的PPT的内容。
然后将每一页的PPT内容分别扔给Nana Banana pro生成对应页面的PPT,需要确保风格一致。
PPT的具体风格应该为图形记录风格,手写赛博朋克风,适当增加故事性的图像和图表。
文字和图像都由 Nano Banana Pro 生成,另外不要将PPT 变成一整张图,一页一张生成。
文章内容为:「此处填写文章内容」
很多人都在讨论 AI 对教育的影响。作为一名从业者,我也思考了一些,之前我向学校董事会分享了我的想法,下面是几个重点:
1. 你永远无法检测到家庭作业中 AI 的使用,毋庸置疑。我认为所有 AI “检测器” 都无法真正发挥作用。它们很容易被破解,而且从根本上来说,注定会失败。你必须假设在教室外完成的任何作业都使用了 AI。
2. 因此,大部分评分必须转移到课堂作业(而不是家庭作业),在教师可以亲自监督学生的环境中进行。学生仍然有动力在没有 AI 的情况下学习解决问题,因为他们知道课堂评估会考察这方面的能力。
3. 我们希望学生能够使用 AI,因为它将长期存在并且非常强大,但我们也不希望学生过度依赖 AI,以至于失去独立思考的能力。以计算器为例,这是一种具有历史意义的颠覆性技术,学校会教你如何进行所有基本的数学和算术运算,这样你也可以通过手动计算来完成,即使计算器很普遍并且大大加快了实际环境中的工作速度。此外,您了解它为您做什么,因此如果它给您一个错误的答案(例如,您错误地输入了 “prompt”),您应该能够注意到它,凭直觉检查它,并以某种其他方式验证它。验证能力至关重要,尤其是在 AI 领域。与计算器相比,AI 目前更容易出错。
4. 许多评估设置仍然由教师自行决定,并且涉及一个创造性的设计空间,例如:禁止使用工具、允许使用小抄、开卷考试、提供 AI 回复、允许直接访问互联网/AI 等等。
TLDR (太长不看) 目标是学生精通 AI 的使用,但也可以在没有 AI 的情况下生存。我认为实现这一目标的唯一方法是翻转课堂,并将大部分测试转移到课堂设置中。
Gemini Nano Banana Pro 可以在考试页面图片中直接解题,图片中包含涂鸦、图表等元素。
ChatGPT 认为这些解决方案都是正确的,除了 Se_2P_2 应该是 “diselenium diphosphide (二硒化二磷)” 和一个拼写错误(应该是 “thiocyanic acid (硫氰酸)” 而不是 “thoicyanic”)
:O
AI 领域有泡沫吗? 随着大量资金涌入 AI 基础设施,例如 OpenAI 计划投入 1.4 万亿美元,以及 Nvidia 市值一度达到 5 万亿美元,许多人都在发问,投机和炒作是否已经将 AI 投资的价值推高至超出可持续水平之上。
但 AI 并非铁板一块,不同领域的泡沫程度也各不相同:
* AI 应用层:投资不足,潜力远超多数人认知!
* 用于推理的 AI 基础设施:仍然需要大量投资。
* 用于模型训练的 AI 基础设施:我对此仍然谨慎乐观,但也可能存在泡沫。
声明:我绝不是在提供投资建议!
AI 应用层:未来十年,基于新型 AI 技术,有大量应用尚待构建。 几乎可以肯定的是,构建于 AI 基础设施/技术之上的应用(例如 LLM API)必须比基础设施更有价值,因为我们需要它们来支付基础设施和技术提供商的费用。
我看到许多企业都在采用代理工作流,并且对这种增长充满信心。 我还与许多风险投资者交流过,他们对投资 AI 应用犹豫不决,因为他们觉得自己无法挑选出赢家,但他们更容易理解如何投入 10 亿美元来构建 AI 基础设施。 还有人相信一种说法,即几乎所有 AI 应用都会因为前沿 LLM 公司改进其基础模型而被淘汰。 总的来说,我认为 AI 应用的投资严重不足。 AI Fund 仍然将此领域作为重点。
用于推理的 AI 基础设施:尽管 AI 目前的渗透率仍然较低,但基础设施提供商已经在努力满足生成令牌所需的处理能力。 我的几个团队都在担心我们是否能获得足够的推理能力,而且成本和推理吞吐量都在限制我们进一步扩展使用。 企业面临供应限制而非需求限制,这其实是件好事。 需求不足更为常见,意味着没有足够的人想要你的产品。 但供应不足仍然是个问题,所以我很高兴看到整个行业都在大力投资以扩大推理能力。
举个对令牌生成有巨大需求的例子:高代理性编码器正在迅速发展。 我一直很喜欢 Claude Code。 随着 GPT-5 的发布,OpenAI Codex 也得到了显著改进。 Gemini 3 也让 Google CLI 极具竞争力。 随着这些工具的改进,它们的采用率将会提高。 与此同时,整体市场渗透率仍然很低,许多开发者仍然在使用旧一代的编码工具(有些人甚至没有使用任何代理编码工具)。 随着市场渗透率的提高——我相信它一定会提高,因为这些工具非常有用——对令牌生成的总体需求将会增长。
我早在去年就预测我们需要更多的推理能力,部分原因是代理工作流。 从那时起,这种需求变得更加迫切。 作为一个社会,我们需要更多的人工智能推理能力。
尽管如此,我并不是说投资这个领域就一定能赚钱。 如果我们最终过度建设——而且我目前还不清楚我们是否会——那么供应商可能最终不得不亏本或以低回报率出售产能。 我希望这个领域的投资者都能获得良好的财务回报。 但好消息是,即使我们过度建设,这些产能也会得到利用,这对应用开发者来说是件好事!
用于模型训练的 AI 基础设施:我很高兴看到大家对训练更大规模模型进行投资。 但在所有三个投资领域中,这似乎风险最高。 如果开源/开放权重模型继续扩大市场份额,那么一些投入数十亿美元训练模型的公司可能无法获得理想的财务回报。
此外,算法和硬件的改进使得每年训练给定能力水平的模型变得更加便宜,因此训练前沿模型的“技术护城河”非常薄弱。(不过,ChatGPT 已经成为一个强大的消费者品牌,因此它拥有强大的品牌护城河。 而在 Google 大规模分发优势的加持下,Gemini 也展现出了强大的实力。)
我对 AI 投资总体上仍然持乐观态度。 但最坏的情况是什么? 是否存在即将破裂的泡沫? 我担心的一种情况是:如果 AI 堆栈的某个部分(可能在训练基础设施中)遭受过度投资和崩溃,可能会导致市场对 AI 产生负面情绪,并导致对 AI 投资的兴趣非理性流失,尽管该领域总体上具有强大的基本面。 我认为这不会发生,但如果真的发生了,那将非常不幸,因为我认为 AI 领域还有很多工作非常值得投入更多资金。
[原文:deeplearning.ai/the-batch/issu… ]
我们很荣幸与 @ENERGY 和特朗普政府合作,共同推进 Genesis Mission。
通过结合 DOE 的科学资源和我们的前沿 AI 能力,我们将助力美国能源发展,并加速科学生产力。
与 @koraykv 探讨 AGI 构建、Gemini 3、Nano Banana Pro 以及 AI 的飞速发展。
GitHub Copilot 不再仅仅是一个通用助手。🤖
你现在可以将其定制成专家团队,例如专门的文档代理、测试代理或安全代理。
我们分析了超过 2,500 个自定义代理指令文件,向您展示如何配置您的设置以获得最大的影响。👇
github.blog/ai-and-ml/gith…
>Opus 4.5 “似乎能永远高效编程”
我发现的确如此。未来还会有更多进展,但基本上你可以设置好这个模型,让它在后台为你完成编码任务。
感觉我们实现了一次飞跃。
BREAKING NEWS:
@AnthropicAI just dropped Claude Ops 4.5!! It is by FAR the best coding model I've ever used.
We've been testing it internally @every for the last few days, and it is an absolute paradigm shift for any kind of coding task.
It extends the horizon of what you can vibe code
The current generation of new models—Anthropic’s Sonnet 4.5, Google’s Gemini 3, or OpenAI’s Codex Max 5.1—can all competently build a minimum viable product in one shot, or fix a highly technical bug autonomously.
But eventually, if you kept pushing them to vibe code more, they’d start to trip over their own feet: The code would be convoluted and contradictory, and you’d get stuck in endless bugs. We have not found that limit yet with Opus 4.5—it seems to be able to vibe code forever.
Takes working in parallel to a whole new level
because it's far better at planning and coding, it can work with more autonomy—meaning you can do more in parallel without breaking anything .
@kieranklaassen worked on 11 different projects in six hours—and had good results on all of them.
Great at design iteration
Opus 4.5 is incredibly skilled at iterating through a design autonomously using an MCP like Playwright. previous models would lose the thread after a few cycles, or say a design was done when it wasn't.
Opus 4.5 is incredible at autonomously iterating until a design is pixel perfect.
we have a full 4,000 word vibe check on @every right now with everything we tested:
every.to/vibe-check/vib…