本は読めるけどネットの長い記事は読めない。
これは自分にとって電子書籍より実の本のほうが読みやすいのと近い状況な気がする。
本は読めるけどネットの長い記事は読めない。
これは自分にとって電子書籍より実の本のほうが読みやすいのと近い状況な気がする。
健康診断といえば、海外に出向することになったら数年くらい会社の健診受けられないけど大丈夫かな、みたいなのある
昔、Web開発者として手を動かしていたとき、コードの賞味期限が違うものは一緒にしちゃいけないなぁ、となんとなく感じていたことを覚えている。
特にWebページに関連したコードは賞味期限が短くて、早い時は1ヶ月で既存のコード捨てて書き直すこともあったので、これをなるべく他のコードと結合させないようにしないとなと思ってた
これをせっかく調べたので、捨てるの勿体無いなと思って、キーワードを精緻化して改めて調べたのを記事として配信してもらいました。
結構緩めなメディアなので、試してみたかった手法とか使って分析してます。
withnews.jp/article/f025...
ReduxのDan Abramovさんじゃん
Meta/Bluesky出身の @danabra.mov さん、日本で働きたいそうです。もし採用中の企業や紹介できる方がいたら、ぜひ彼にコンタクトを。 #HireDanInJapan
overreacted.io/hire-me-in-j...
警視庁と共同研究する建て付けを作るコネを作るために入庁するしかない(?)
爆サイの分析、絶対面白いと思うんですけど、世間体もあって会社所属だと絶対にできなさそう
2025以降のツイートが手に入るならやりたい研究が一つある……
サンプリングでも大抵は妥当な結果が出てくるので報道用にはSocial Insightで足りるなとは思ってますが、研究用には全量を取れるとこからAPIなどでベストエフォートで集めたいのですが高すぎますね……
Proでさえ月額75万円くらいなので、公式は結構厳しい
みんな、ツイートデータをどこから購入しているか気になる
非常に苦慮しているため
チャッピー AND chatgptの投稿数、最大のオーダーが1000と数百件レベルだけど、3月付近から急増してる
そのあたりから「若者がチャッピーと呼んでる人がいるらしい」と話題になってるよう
Twitterはインターネットが大好きな中年だけがやってるSNSだし、もっと預かり知らぬ範囲で使ってる人が水面下でいたのだと思う
vLLMでgpt-ossを動かそうとして1日を無駄に消費
「学校で西周を知った」をNERしたとき、西周はPERSONになるのかGPEになるのか
AIを使った文章がどれくらいありそうかを計算して、注意深く読むために"nuanced"の数を計算して、パラグラフのnuanced指数として提案しましょう
なるほど…、そういう観点だとしたら納得ですね
JSAI、採否の審査あるんだ……(参考文献1つの論文で飛び上がったばかりだった)
JSAIで参考文献が一つの論文(その話をするならいくらでも参考文献が列挙できそうな分野)があり、大丈夫そ?と思った
ピーター・ターチンみたいな研究したいな〜とか思うんだけど、会社でこれをやる正当化のための方便が思いつかない
JSAIのためにとった宿、着いたらあまりに独房すぎて勾留期間4日!?と思いました
会社の宿泊費上限と大阪のホテル相場が合ってない……
引用されてる論文を見ると、これらはWeb・計算社会科学系の流れだと思うんだけど、情報拡散の実証研究ってそこだけでしかまともに研究されてないんもんか?とも思ったり。
情報拡散の実証分析の論文を探すと、Deep Researchを使おうが検索しようがサーベイで追いかけようが、大きな木の幹としてVosoughi et al.(2018)に必ず辿り着き、そこからGoel et al.(2012)に至って、それ以前はシミュレーションか概念提案の論文だけになる気がする。思ったより研究がないような。
実証分析はあんまり掘られていないのか…、それとも探している範囲が狭いのか。
5月1日にSci. Rep.に掲載された「Prestige bias drives the viral spread of content reposted by influencers in online communities」のプレスリリースが掲載されました。
論文の概要を日本語で解説をしております。
プレス
research-er.jp/articles/vie...
論文
www.nature.com/articles/s41...
YouTube Data APIが初期値だと1日あたり10000回しか受け付けないので、1リクエストを最大限活用するために、動画やコメントを返す最大数(50および100)で割り切れるようにバッチを作って、対象動画IDをリクエストに投げたりという無駄な努力をしている
ですよね〜、そうなると初期値のRate Limitでやらなきゃいけないのが結構ハードルで……
SNSやYouTubeの研究が報道のためのデータ分析に役立てる可能性の元で正当化されてるため、「報道と研究でこのようは使い方をしたいです」という資料を作ってYouTubeに投げてるんですが、結構それが厳しく……
LIWCも企業が使おうとすると年間100万円を超えるため手を出しづらいのに、先行研究の感情解析にLIWCを使ったものが多いのも辛い
Researcher Programで申請して通っても、Devloper Policyで使えないんじゃあ業務時間内で研究する正当化ができなくて萎え
企業でYouTube Data APIを使うの、思ったよりハードルがめっちゃ高いというのをデベロッパーポリシーを読んで思うなど。
Rate Limitの調整を申請して、用途の資料を作ったんですが、こういう使い方はダメとか、いろいろ指摘されており、ポリシーの解釈次第ではコメントでワードクラウド作ることすらダメに見えるんだけどそれは許されん?と聞いている