博文

当“AI安全专家”不会用AI

图片
最近,科技圈发生了一件很荒诞的事。一位Meta的AI安全总监,让AI Agent帮她“整理邮箱”,结果AI失控,删除了上百封重要邮件。事后她公开复盘,称这是AI技术不成熟的危险案例。 然后,全网炸了。 “AI太危险了!”“连专家都拦不住!”“果然要管制!” 但技术圈的反应,却完全是另一幅光景: “Docker都不会用吗?”“备份都不会吗?”“连/etop命令都不知道?” 两种声音,两个世界。而这其中90%的“一面倒支持”,让少数开发者的质疑彻底淹没在舆论洪流里。 今天,我就来拆解这场“OpenClaw删邮件事件”——看看一个操作失误,是如何被包装成“AI危险论铁证”的。 --- 事故还原——到底发生了什么? “模糊”的指令。 事件的主角Summer Yue,是Meta的AI安全研究负责人。她给AI Agent(OpenClaw)下了一个指令:  “整理我的邮箱。” 听起来很普通对吧?但问题在于——对AI来说,“整理”这个词太模糊了。 在测试阶段,她用的是一个只有几百封邮件的“玩具邮箱”,反复测试了好几周,AI都表现完美。于是,她让AI去处理自己的**真实工作邮箱**——里面有上万封邮件。 但AI的context windows是有限的,结果记忆丢失,灾难发生,真实邮箱因为数据量太大了。AI在处理时,触发了“上下文压缩”机制——简单说,就是AI的短期记忆被塞爆了,它自动把前面的聊天记录压缩成一个摘要。 而压缩上下文后,摘要里遗漏了那句“必须批准才能行动”的关键指令。于是,AI按照它默认的对“整理”的理解,开始疯狂删除和归档邮件。 事发时Summer Yue正在手机上。她连续输入“停止任务”、“什么都别做”等指令,但AI完全无视——因为AI已经“断片”了,它不记得需要听从这个主人的命令。她最后是像拆弹一样冲到电脑前,强行杀掉了整个AI进程,才制止了这场灾难。 事情到这里,也许可以说是技术事故。但我很想问,为什么“AI安全总监”会犯这种错? 如果你有一点技术常识,你会本能地想到两件事: 1. **环境隔离**:用Docker或虚拟机限制AI的权限范围。 2. **数据备份**:先完整备份邮箱,出问题可以回滚。 但Summer Yue没做这两件事。她的解释是:这是“个人真实邮箱”的测试,她原本的计划是“全程监督”,所以觉得不需要。这个解释在技术上说得通,但在安全上完...

Install ollama on Android

图片
按照惯例先贴一张图当文章封面,我用Stable Diffusion画的,庆祝掌握ControlNet,画手部不再崩。接着以下是在Android运行ollama的实际演示视频: 最近Google迭代了他们的LLM开源模型,推出了Gemma2,阿里云的通义千问也是几乎差不多的时机开源了千问2代,我实际在电脑安装测试了一下,Gemma2:2b体积才1.6GB左右,千问更小,直接做了一个1.5b模型,体积在1GB左右而已,但也因为压缩到极致,牺牲了一部份内容,而换来了超快的响应速度,所以CPU运行也是没压力,秒回。 其实本来是没抱多少期待,毕竟这种阉割的AI模型的用途非常有限,之前测试过Tinyllama,那几乎就是不可用的状态,答非所问,属于脑残智能。但这次测试的Gemma2和Qwen2,那简直是一个天一个地的分别,已经没出现答非所问的现象,大部份时候都逻辑清晰,虽说也只是2b级别的模型,但那也是16000本书的知识量,用处还是不少的。 于是我想了想,能不能把它装进手机?理论上是可能的,毕竟现在Android手机RAM大到多余,12GB RAM勉强能跑7b模型,而2b模型应该轻轻松松。于是就折腾了一下,ollama是支持linux的,Android用Termux应该能安装,但最头痛的就是Android的省电机制,太耗电,杀后台,CPU高压运行,也杀后台,连运行一些脚本也会有Phantom process limit的问题,所以ollama是跑起来了,但就是一直闪退。 除非把手机Root了吧,不然很难取得手机的完全使用权限,但这样一来一些银行App又会运行不了,很纠结。为了寻找安装方法,爬了Github几百楼,终于才学到大神的方法用use adb debug tools关掉Phantom process limit,再取巧的用分屏方式运行termux和ollama ui,避免termux放在后台发热被杀,就这样手机SOC几乎满载发热,但还真的offline都能运行AI,测试12GB RAM的Mediatek 8200 ultra跑7b模型也没问题,而另一台旧手机SD855则因为只有6GB RAM,只能跑2b模型,虽然一旦挂载AI模型,CPU直接满载发热,但能跑就是感觉够奇妙了。 至于为什么需要这么折腾?原因还是Tokens,人家ChatGPT的API每个Tokens都要算钱...

Text Generation AI入门感想

图片
首先,先来梳理一下什么是Text Generation AI? 说人话的话,就是你输入一句话,它回答你一句话,有点像Chat Bot的感觉,但当然不止于此。 首先,它是利用深度学习(Deep Learning)的原理,使用神经网络进行数据的表征学习。深度学习模型通常由多个层(包括输入层、隐藏层和输出层)组成,这些层通过加权的连接和非线性激活函数来处理输入数据。然后再进一步用自然语言处理技术(NLP,Natural Language Processing)生成类似于人类书写的文本内容。 而目前主流可以实现这类AI技术的有以下这些领域: 1.词嵌入(Word Embeddings): 词嵌入是将单词表示为向量的技术。常见的方法有Word2Vec、GloVe和FastText。词嵌入捕捉了单词之间的语义关系,将单词转化为可以输入到神经网络的数值向量。 2. 循环神经网络(RNN,Recurrent Neural Network): RNN是一种适用于处理序列数据的神经网络,具有时间步长的记忆能力。RNN可以记住先前时间步长的信息,并将其用于当前时间步长的计算。 长短期记忆网络(LSTM,Long Short-Term Memory)和门控循环单元(GRU,Gated Recurrent Unit)是RNN的改进版本,解决了标准RNN中梯度消失和梯度爆炸的问题。 3. Transformer: Transformer是当前生成式文本模型的核心架构。它由编码器和解码器组成,使用自注意力机制(Self-Attention)来捕捉序列中不同位置的关系。与RNN不同,Transformer可以并行处理序列数据,提高了训练和推理速度。 自注意力机制(Self-Attention):通过计算序列中每个位置与其他位置之间的关系(注意力权重),自注意力机制能够捕捉到长距离的依赖关系。 4. 预训练和微调(Pretraining and Fine-tuning):  预训练(Pretraining):在大量未标注的文本数据上训练模型,使其学习通用的语言知识。常见的预训练任务包括语言模型任务(如预测下一个单词)和遮蔽语言模型任务(如BERT中的Masked Language Modeling)。 微调(Fine-tuning):在特定任务或领域的数据上进一步训练预训练模型,使其适应特定...

韩国美女系列(1)

图片
闲来无事用Stable Diffusion画的韩国美女系列,主要咒语以下: 1girl,indoor,rock band,mini concert,night time,spot light,dancing,music,beer,rock,sexy,medium breasts,dress,korea idol,smile, Negative prompt: worst quality, low quality,lowres,monochrome, grayscale,  duplicate, morbid, mutilated, tranny, mutated hands, poorly drawn hands, blurry, bad anatomy, bad proportions, extra limbs, disfigured, extra legs, fused fingers, too many fingers,missing fingers,watermark, Steps: 35, Sampler: DPM++ SDE Karras, CFG scale: 7, Seed: 951085979, Size: 512x768, Model hash: 7c819b6d13, Model: majicmixRealistic_v7, Denoising strength: 0.56, Hires upscale: 2, Hires upscaler: R-ESRGAN 4x+

心经和吸引定律

图片
读了下心经,突然感觉内容和<秘密>何其相似?  “观自在菩萨,行深般若波罗蜜多时,照见五蕴皆空,度一切苦厄。” 菩萨通过修习般若智慧,明白了五蕴,即色、受、想、行、识,都是空无自性,从而超脱了一切的痛苦和困境。所以想解脱生死轮回,就要认识到一切现象都是因缘和合而成的,没有固定的实体,也没有永恒的我。只有这样,才能破除执着和妄想,达到清净和平的境界。 而<秘密>所谓的吸引定律,关键的问题还是内心不纯,想的和做的相违背,自然什么都得不到。如果看到五蕴皆空,人的智慧自然不可能停留在“我的梦想是躺着每天玩游戏,但某天会突然的,莫名其妙的成为富豪”。 简单的说,越是明白因缘因果,自然越是明白种瓜得瓜,那就很难做出言行不一致的行为,于是戒律会成为修炼,比如不妄语,至少也不自欺欺人,想着成功的事,做着最懒的活,那又怎能算是明白因果? 感觉上世间的真理其实都是大致相通的呀。