LLMに脳科学ベースの長期記憶を実装する記事です。記憶のドリフトや睡眠統合など16の仕組みで人間的な想起を再現しています。私も自分専用のAI軍師を作っているので参考になります
LLMに脳科学ベースの長期記憶を実装する記事です。記憶のドリフトや睡眠統合など16の仕組みで人間的な想起を再現しています。私も自分専用のAI軍師を作っているので参考になります
OpenAIがAIセキュリティのPromptfooを買収しました。エージェント時代、攻めだけでなく守りも押さえにきたようです。
一時期はRAGが万能のように語られましたが、Claude Codeの開発者はglobとgrepをLLMに使わせる"Agentic Search"の方が優れていたと語っています。流行の揺り戻しが興味深いです。
OpenAIロボット部門トップが国防総省とのAI軍事契約に反発し退職。AIを真剣に触っている人なら、これが暴走するといかにヤバいことになるか、わかりますよね。人類として、舵取りを間違えないでいきたいです
どれだけのことがAIに委譲できるのか、結局どこまでいっても個人の軸を作るための学習は必要とあり続ける気がします。
Vibe Codingを実プロジェクトで6ヶ月試した検証記事です。AIに90%以上コーディングを委譲できたものの、それを活かせるのはシニアだけという結論が印象的でした。
qiita.com/nogataka/ite...
プロンプトの書き方に凝る人は多いけど、本当に効くのは情報の置き場所の設計。目次化して整理することでコンテキスト圧縮できました。
外食の記録、やろうと思っても面倒で続かなかったんですが、AIに写真を渡すだけで店名も住所もリンクも全部調べてノートにしてくれる仕組みを作ったら、むしろ楽しみになりました
zenn.dev/noprogllama/...
OSSでAI Slop問題が深刻化しています。ただ、OSSは消えるのではなく形が変わるはず。「コードではなく修正プロンプトを共有する」というアイデアも出ています。OSSは今後今の姿と異なるものになる気がしています
GPT-5.2 Proが量子重力で新たな数学的結果を導出したそうです。研究者の役割が「AIの検証者」に変わる時代、なかなか考えさせられます。
AI生成のCLAUDE.mdを使うとタスク成功率がかえって下がるという研究が出ました。既存ドキュメントとの重複がノイズになるそうで、結局は手書きの簡潔な指示が一番とのことです。これは意外でした。私のmdも見直さねば!
OpenAIが政府監視へのAI活用に同意と批判され契約見直しへ。Anthropicは監視を拒否しClaudeがApp Store1位に浮上したそうです。姿勢が問われる時代ですね。
Anthropicが「自律兵器には使わせない」と宣言した同じ日に、米軍がイラン攻撃にClaudeを使用していたことが判明。AI倫理と軍事利用の境界線が、これほど劇的に試された日はなかったかもしれません。
AIで情報収集を自動化するとき、最初から全部つなげたくなりますが、まずは蓄積だけ回すのが正解だと実感しています。ツールの使い方は真似できても、自分だけの蓄積データは真似できない。仕組みの差別化ポイントは「何を溜めたか」にある。
米国防長官がAnthropicを「サプライチェーンリスク」に指定する方針とのことです。AI企業と国防の関係がここまで緊迫するとは、時代の転換点を感じます。
AIが書いたコードで障害発生、犯人は誰? 500行が3分で生成される時代、「コミットした人の責任」では済みません。責任を4段階の承認に分解する発想が鋭いです。
AnthropicのアモデイCEOが、国防総省からの安全措置撤廃要求を拒否しました。自律型兵器と大規模監視にはClaudeを使わせないという姿勢です。個人的に注目してましたが、少しホッとしました。
GoogleのNano Banana 2は、ウェブ検索で最新情報を取り込んでから画像を生成するそうです。4K対応に高速化、性能は申し分ないのですが、名前のセンスだけが相変わらず謎です。
AnthropicがClaude Codeのリモートコントロール機能を発表しました。PCで走らせたセッションをスマホから操作できます。外出先からコーディングを指示できる時代が来ました。
AnthropicがClaude Code Securityを発表しました。パターンマッチではなく人間のように推論して脆弱性を検出する方式で、修正提案もPRに反映できるそうです。
コード理解に特化した軽量MCP「cocoindex-code」が公開されました。Tree-sitterで構造解析し必要な部分だけ渡すことでトークン70%削減できるそうです。これはラマも実際に触ってみたいですね!🦙
確定申告をAIで自動化するスキル「shinkoku」がOSS公開されました。OCRから仕訳、e-Tax入力まで一気通貫、今の時期にぴったりですね!
AIに頼りすぎると思考力が衰える「認知萎縮」について研究者が警告しています。電卓、スマホの電話帳、過去にも色々言われてきましたが、今回はどうでしょうか。
5/5 「がんの治療と引き換えに全体主義を受け入れる必要はない」。この一節がスピーチの本質です。IAEA的なAI国際協調機関の必要性も提言しました。超知能自体にガバナンスの設計を助けてもらうべきだという、極めてメタ的なビジョンも示しています。
4/5 AIとロボットでモノもサービスも大幅に安くなると予測しています。一方「GPUに多くの面で勝つのは非常に困難」と雇用の大規模な破壊も認めました。ただし人間は人間を機械より遥かに大切にするようできていると指摘しています。コスト削減の制約は政府の政策のみとのことです。
3/5 Altmanが掲げた核心的信念は3つです。第1にAI民主化、一企業・一国への技術集中は「破滅」に至ると断言しました。第2に社会的レジリエンス、技術的安全性だけでなく社会全体での防衛が必要だと述べました。第3に反復的デプロイメント、社会がAIと向き合う時間の確保です。
2/5 インドでのChatGPT週間利用者は1億人超、うち1/3以上が学生です。コーディングエージェントCodexの最速成長市場もインドです。IT産業従事者数百万人がAIツールを急速に取り込んでいる証左で、外交辞令ではなくOpenAIの実ビジネス戦略の裏付けといえます。
1/5 Altman「2028年末にデータセンターの知的能力が人類全体を超える」と明言しました。超知能の初期版まであと2年との予測です。AGIではなく「真の超知能」という表現を使った点が重要で、ASIレベルを射程に入れた発言です。
https://www.youtube.com/live/mqrtgdrw2M8