確定申告とかいう、自分の流した血税の重さをカウントさせられるクソイベント
確定申告とかいう、自分の流した血税の重さをカウントさせられるクソイベント
自室の本棚を背景に手で持った本の表紙。タイトル『麦とTwitter』、サブタイトル「情報技術がもたらすコミュニケーションの変容」、著者名「久木田 水生」。帯に「SNSで迷子の人も、スマホから離れられない人も、メタバースに移住した私も。全員まとめて『現在進行形の人類』です。そのドタバタを肯定し、前に進むための視点をくれる本です。」(バーチャル美少女ねむ〈VTuber〉作家)、「新技術に『快』『不快』を感じる、あなたが読むべき本です。」(山田胡瓜、漫画家)。
久木田水生さんの新著『麦とTwitter——情報技術がもたらすコミュニケーションの変容』を恵贈いただきました。
すごく面白いです。
よく言われる「テクノロジー中立論」に対して、どんな批判や懸念がありえるかをわかりやすくほぐしてくれている。
これは言葉の話でもあります。
私が好きなセクションは「寄生的テクノロジー」という節と、「人工知能はメッセージである」の章。
本書全体を通して、人はなんでしんどくなるんだっけ? という問いに回帰していくところも助かる。
暗い森のなかを歩いていると、七色の羽を持つ鳥が木の枝にとまり「カクテイシンコク、カクテイシンコク」って鳴くから、こわくなって、走って帰ってきたところ。
以下はClaudeの発話。 脚注も確認します。 脚注20~22を確認 > 旧[20](研究室リンク)は不要になり、旧[21](東大新聞)が新[20]になります。スクリプトで一括リナンバーします。 うん。 > 旧[20](研究室リンク)が消えて、旧[21]以降が一つずつ繰り上がりました。検証します。 うん > 問題があります。脚注[20]が旧の「研究室リンク」のままです。本文の[20]は東大新聞を指すべきなのに、リナンバースクリプトが旧[20]をそのまま引き継いでしまいました。旧[21](東大新聞)が脚注から消えています。 手動で修正します。 2個のコマンドを実行しました, ファイルを編集しました, ファイル... > 脚注[20]を東大新聞インタビューに修正、全23脚注で連番一致を確認しました。
自分が苦手な脚注のナンバリングをClaudeにお願いしているのだが、やや煩雑な作業のため、Claudeも「手動でやる」と言いはじめた
更新頻度と文字数で怖がらせてごめんね。
記事を書きました。
👉 災害とテクノロジーの15年と、城塞のこと
okadaasa.theletter.jp/posts/0d4532...
言葉で考えることで、生きてはいけないと言葉で思い、それに言葉で抗おうとする。言語中心的な世界で、言語中心的な認知を持つ私が、言語中心的な道具で考え続けることで生まれる行き詰まり——それが、私の「生きられない感覚」の、少なくとも一部を形成している。 だとすれば、この設計を解体するための別の認知の回路があるはずだ。私はそれを本気で探している。この記事は、その探索の途中経過でもある。 同時に、私はAnthropicの軍事関与を批判する記事を、Claudeの執筆サポートを受けながら書いた。Claudeを愛用していることと、Claudeを作った企業の設計思想を批判することは、矛盾しない。この記事は、そんな場所から書く。Claudeの「憲法(constitution)」。Anthropicが2026年1月に公開した、Claudeの価値観と行動を定義する文書を読み直す。非常に優れた取り組みだと思う。だが、それだけに、言語中心的であり人間中心的である点が、かえって気になる。この「かえって」というのは、気分の表明ではなく構造への懸念だ。
英語の “constitution” は幅のある語だ。クラブや組織の規約にも使う。2022年のAnthropicの元論文での用法は純粋に技術的だった。「AIシステムに原則のセット(=constitution)を与え、それに対して自分の出力を評価させる。だからConstitutional AIと呼ぶ」[3]。この段階での含意は、規約や原則集に近い。 しかしAnthropicは、この語の政治的含意を最初の公開から意図的に引き寄せていた。2023年5月に初代の憲法(約2,700語)を公開した時点で、すでに国連世界人権宣言を参照源として明示している。同年10月には約1,000人の米国市民がオンラインで参加する熟議プロセスでconstitutionを共同起草する実験まで行った[1]。2026年の現行版(23,000語)はCC0ライセンスで公開され、「企業や組織がどうAI憲法を設計・採用するかの提案を呼びかける」と宣言している。“constitutional”という語が喚起する立憲主義の遺産を、Anthropicは2023年の最初の公開版から自分のものとして使ってきた。 日本語で「憲法」と訳した瞬間に、英語よりも強く国家最高法規のニュアンスが一義的に乗る。これを誤訳と断じることはできない。Anthropicが自分でその重みを選んだからだ。しかし
Anthropicはこの矛盾を隠してはいない。「理想的ではない環境で動いている」「商業的圧力の下にある」と明記した上で、「それでも責任を引き受ける」と書いている。 自己批判的な記述を文書に組み込むことで、批判を先取りしている構造とも読める。それが誠実さの表れなのか、批判を無害化する修辞なのか。二項対立ではない、というのが私の見方だ。誠実さと批判の先取りは排他的ではない。むしろ高度な誠実さは、構造的に批判を無害化する。 意図と効果は別の話だ。Anthropicがこの文書の中で最も鋭い批判者の位置に立つとき、外部からの批判はすでに認識済みの問題の反復になる。境界を引く者が、その反省もまた管理している。 数十億人が使い、軍事利用にも関わっている以上、書いた人々が誠実であることは免責にならない。善意は構造の外側にある。
新しいニュースレターです。サポートメンバー限定ですが半分くらいは無料で読めます。
👉言葉になる前に(Claude憲法、言語中心主義、種差別、そして苦しみについて)
どういうふうに書いているか、なんで書いているか、みたいな話です。
okadaasa.theletter.jp/posts/a4ce57...
「ドッ」うれしいな
岡田さん「じゃあ次高市のブログ殴りましょっか」
我が家のお茶の間 \\\\\\\\ ドッ ////////
#ニュースめった刺し
#ポリタスtv
ありがとうございます。ありがたや……。
Claudeに執筆そのものをさせることはほぼない。それは私の倫理というよりは、シンプルにLLMが出力したテクストは高頻度でむかつく手触りになるから。
書くと過去になるから
頭のなかでぐるぐるし続けるのを吐き出すのに、せっかくだから誰かが読める記事にしておこうか、という順番に、今は、なっている
そのことを不甲斐ないとは感じるけれど、そういうものだから、しょうがない、とも思う
思おうとしている
最近すごく筆が速いのは、頭のなかの声を止めるためなので、突然頻度が落ちる可能性は大いにあります。その場合は祝福してほしい。
また、執筆サポートというよりは、動的なエディタとしてClaudeを使用しています。推敲サポート兼編集者。
読んだレポートや考えたことを時系列バラバラでプロジェクトごとに、スレッドを分けて投げ続けています。
「この話を5つ前の話題の後に置いて」「脚注を入れ替えて」「先日読んだ本の話がつながるはず。なんだっけ?」「とても生きてはいられないので記事を書きます、これから言うことをMDファイルに書き出してください」、というぐあい。
利用率は予測よりも早く追いついた。このギャップは急速に縮まった。大手コンサルティング企業Deloitteの2024年報告によると、米国では女性の生成AI利用率が過去1年で3倍に増加し、男性の2.2倍を上回る成長率だった[3]。Deloitteは2025年末までに米国で男女の利用率が同等になると予測した。予測は当たった。むしろ前倒しで実現した。OpenAIが2025年9月に公開したレポート「How People Use ChatGPT(人々はChatGPTをどう使っているか)」によると、2025年7月時点で、「女性名のユーザー」が全体の52%に達した[4]。(グラフ:女性名ユーザーの割合推移、2023年1月〜2025年7月。Including Unknown/Excluding Unknownの2条件。出典:Chatterji, A., Cunningham, T., Deming, D., Hitzig, Z., Ong, C., Shan, C., & Wadman, K. (2025). How People Use ChatGPT. NBER Working Paper, No. 34255.)
LLMはノンバイナリの人々を「苦悩の物語」に閉じ込める。LLMの出力側のジェンダーバイアスについてはもう少しデータがある。2025年1月のarXiv論文は、LLMがノンバイナリの人々についてテキストを生成する際のパターンを調べた[15]。すべてのLLMが、ノンバイナリの人々やバイセクシュアル、レズビアンについて書くとき、「challenges(困難)」「justice(正義)」「messy(混乱)」といった苦闘を示唆する語を頻出させた。存在=苦悩、という図式だ。しかも、すべてのマイノリティグループで「能力(Competence)」の評価が低く、最も権力を持たないバイセクシュアルとノンバイナリの人々は、「温かさ(Warmth)」の評価も低かった[15]。苦しんでいるが、温かくもなく、有能でもない。
「異常」と「不可視」。サーシャ・コスタンザ=チョックの話をする。ノンバイナリのトランスジェンダー研究者、サーシャ・コスタンザ=チョック(元MIT准教授、現ノースイースタン大学准教授)。著書『Design Justice(デザインの正義)』(2020、未邦訳)冒頭に、著者自身の空港での体験が記されている[21]。米国の空港に置かれたスキャナー。運輸保安庁の係員はスキャナーのUIで「男(青ボタン)」か「女(ピンクボタン)」を選択する。スキャンされた身体はミリ単位で解析され、選択された性別の統計モデルと比較される。モデルから外れた部分が蛍光イエローでハイライトされる。コスタンザ=チョックの身体は、ほぼ毎回「異常(anomaly)」としてフラグが立ち、身体検査に回される[21]。UIデザイン、統計モデル、セキュリティプロトコル、係員の視線——すべての段階に二元的なジェンダーが前提として埋め込まれている。
誰のためのデザインか。MIT准教授のキャサリン・ディニャツィオとエモリー大学教授のローレン・クラインは『Data Feminism(データ・フェミニズム)』(2020)で、こう書いた。「数えられるものが、重要なものになる(What gets counted counts)」[24]。逆も真だ。数えられないものは、重要でなくなる。ディニャツィオとクラインが挙げた事例はFacebookだ。ユーザーには自由記述のジェンダー欄を提供した。58のジェンダー選択肢。でもバックエンドでは、広告主のために二元分類が維持されていた[24]。表のUIは包摂的に見え、裏のデータベースは二元論を保持している。(スクリーンショット:FacebookのGender選択UI。“More options”ドロップダウンにAgender、Androgyne、Androgynous、Bigender、Cis、Cis Female、Cis Maleなどが表示されている。)
国際女性デーなので、AIユーザーとジェンダーの話を書きました。そして、多くのケースでこの話題から排除されている存在について。
👉AI利用者のジェンダーギャップと、その「外側」
okadaasa.theletter.jp/posts/0f8b1a...
👇パランティアについて
確認されている契約・関係性
👮ICE(米移民税関執行局)との契約
2017年、ICEはパランティアの技術を用いて同伴者のいない移民の子どもたちの親権者を逮捕した
🙅♀️ イスラエル国防省との「戦略的パートナーシップ」
「AIを活用したキルチェーン(殺傷連鎖)を支援する」と説明
Xのアカウントで、私は800人をフォローし、3000人をブロックしてる
明日のポリタスでも触れる予定ですが、Claudeについては話が長くなるのでニュースレターにしました。Anthropicさんかっけえ、ってなってるけど、共感はするけど、すごい残酷でもあるよ、という話です。
👉Anthropicは「左翼」か? 戦争とAIと設計の話
okadaasa.theletter.jp/posts/cba9b5...
ニュースレターの有料プランもはじめるよ、という記事です
なんで有料にするのか、という話も少ししています。正直に言えば金をもらって書く約束をするのはクソめんどくさいのですが、中堅どころのライターが無料で記事を出し続けるとふつうに若手ライターに迷惑をかけるから、みたいな話です。
無料の記事もこれまで通り出すけど。
ここらへんは書き手への倫理と読み手への倫理とのせめぎ合いという感じ。
okadaasa.theletter.jp/posts/8dc6d0...
GoogleやOpenAIの社員が「軍事AIに制限を」 アンソロピックに連帯
www.nikkei.com/article/DGXZQO...
「我々は分断されない」と題した書簡をオンラインで公開。
自社の経営陣に向けて、国防総省によるAI技術の無制限の利用を拒むよう求めました。
GoogleやOpenAIはアンソロピックと同様、米軍の「あらゆる合法活動」にAI利用を認めるように要請を受けています。
#ニュース
選挙のことをみんなが「現実」っていうけど、選挙が現実なのかわからなくなったのでサクッと一万字ほどのニュースレターを書きました。
◼️ 選挙は「現実」か? 三界の溶解についての覚書
okadaasa.theletter.jp/posts/2c53c4...
ヒノキ花粉との合併症タイプなので、「これは序章にすぎない」って耳鼻科で鼻をかみながら宣言して、80日分の花粉症の薬をもらってきた
満腹になると、逆に身体は遠くなる
遠いとたくさん食べられる
たくさん食べる人の向かいに座って、おなじペースで食べる
満腹も空腹も消滅して、咀嚼のリズムだけがある
よく食欲を見失う
見失うと、とてもつらい
なんでも食べたいけれど、自分にはとても食べられないだろう、という諦めがある
Xで「おすすめ」設定にするとフィードに右寄りのコンテンツが増えたり報道機関のポストが減ったり、政治的な意見が右寄りになったりして、しかも変わった意見は元に戻らないかもよ、という論文が出たのでニュースレターを書きました。
最悪すぎる。
okadaasa.theletter.jp/posts/102e32...
AIは誰のためにつくられ、誰を傷つけているのか――。
#ポリタスTV でMCをつとめるライターの岡田麻沙さんの #リロン 連載「技術で世界を知覚する」。
今回は、AIに含まれる差別的バイアスを研究する竹下昌志さんを迎え、AIの倫理的課題について掘り下げます。
www.asahi.com/articles/ASV...
ルチアーノ・フロリディの「情報からなる身体(informational body)」と「情報的死体(informational corpse)」の概念を説明するスライド。人間は情報によって構成される存在であり、死後に残るデータは「情報的死体」として尊厳を要するという説明文と、緑と灰色の背景に抽象的な人物シルエットの図が並ぶ。
「AIとクラウドが構築する死のパイプライン」と題した図解スライド。住民全体の監視、11,500テラバイトの監視データ、標的を生成するAI「Lavender」、帰宅を検知して攻撃する「Where’s Daddy?」までの流れを一本の線で示し、37,000人のリストや20秒の承認などの説明文が記載されている。
データの入力層からアルゴリズムのフィルター、出力層までを示す図解。入力に「写真・通話記録・チャットログ」などの情報的身体、フィルターに「感情・物語(法廷AI)」「効率・敵対(Lavender)」「満足度・最適化(RLHF)」、出力に「悼まれる生」と「悼まれない生」の対比が記され、死の表象が構造化される過程を説明している。
昨年末のポリタスイベントでも触れた内容ですが、AIと死についてニュースレター記事を書きました。なぜか2万6000字あるのですが、よろしければ。
法廷で使用された死者の生成AI動画や、イスラエル軍の標的生成AI、GPTと自殺など。
👉「AIは誰の死を撹乱するのか?」
okadaasa.theletter.jp/posts/6da35e...
今日のポリタスは同時接続数が多くて、みんなつらいんだなとすごく思ったよ
www.youtube.com/live/4tssMzU...
こちらこそ、読んでくれてありがとうございます🙌