Lyssna på diskussion kring utvalda forskningsartiklar i SoeTech Paper Picks: - share.google/iCHypNeEMpyY...
Lyssna på diskussion kring utvalda forskningsartiklar i SoeTech Paper Picks: - share.google/iCHypNeEMpyY...
Sverige riskerar att fastna i en jobbförstörelsefälla, men inte för att AI tar alla jobb utan för att befintliga institutioner och politik hindrar framväxten av nya jobb. Om detta skriver jag och @drbergh.bsky.social på DN Debatt:
Har poddat igen, denna gång om Northvolt, Theranos och Uniti. Vi kommer aldrig att kunna undvika att bubblor blåses upp för att sedan brista, men här är några tankar kring hur problemet kan mildras. shows.acast.com/berghwernber...
Check it out for cool plots like this about how affinities between words in sentences and how they can show how Green Day isn't like green paint or green tea. And congrats to @coryshain.bsky.social and the CLiMB lab! climblab.org
Finns det en övergripande ideologi i Silicon Valley och är den i så fall mer libertariansk eller teknokratisk? Och vad spelar det för roll för debatter om teknikens samhällspåverkan? De här frågorna har jag funderat på ett tag och nu har jag och @drbergh.bsky.social provtänkt lite om saken.
Är Sverige på väg att hamna hopplöst efter i AI-omställningen? Och är industripolitik mer OK om det handlar om AI? I senaste Bergh & Wernberg (med @drbergh.bsky.social ) diskuterar vi AI-kommissionens slutrapport och jag förklarar varför jag menar att svaret på båda frågorna är nej.
If you are an academic, it can be instructive to work on a paper with AI. Pretend you are working with a grad student & see what happens.
Generally o1 is best for well-defined heavy intellectual tasks, Gemini for synthesizing lots of text, and Claude for writing & theorizing. This varies by field.
Hur går det när de duktiga ska avslöja att de coola har fel? I nya #berghwernberg pratar vi om Henrik Jönsson, Ny demokrati och amerikanska presidenter - med mera. Lyssna här: shows.acast.com/berghwernber...
Mellandagslyssningstips!
I senaste avsnittet av Bergh och Wernberg pratar jag och @drbergh.bsky.social om varför coola debattörer med känslobaserade argument som har lite rätt återkommande klyver samhällsdebatten:
A huge battle broke out last night over o3 and the ARC test. What does it all mean? I explain here:
open.substack.com/pub/garymarc...
While OpenAI’s o3 ARC/AGI test scores certainly are impressive, I strongly recommend reading @fchollet.bsky.social ’s thread on X (corresponding posts here are not as elaborate at this time) about how this relates to AGI, bottle necks and future expectations on AI:
From what I’ve gathered so far o3 is not just brute force (although the compute costs suggest a lot of it). It does not appear to be just returns to scale either, which speaks to the oeiginal intention behind the ARC/AGI challenge: to incentivize a wider variery of approaches to AI development.
I suspect that linking back to twitter is not done here, but this is a fascinating look into a case of how LLMs end up doing weird things that is pretty illuminating.
Specifically, why does an LLM constrained to only be able to use words from the Bible keep saying “ouches”? x.com/voooooogel/s...
Samtalar med Mathias Sundin från AI-kommissionen om deras slutrapport, förslagen de kommer med samt förhållandet mellan stora planer och marknadskrafter vid teknikskiften, allt under ledning av Andreas Ericson i SvDs ledarpodd: www.svd.se/a/VzoPWr/sa-...
We're squeezing in one final seminar this term. Max Greenberg from UMass will be discussing the rise of 'hard to contract for' jobs and its implications for inequality on 5 December (online and in person). #Inequality #LaborMarkets
www.inet.ox.ac.uk/events/the-r...
Nu har @wernberg.bsky.social och jag varit på konferens med Philosophy, Politics & Economics Association, och funderat lite på vart nationalekonomin borde ta vägen nu. Det blev ett podd-avsnitt: shows.acast.com/berghwernber...
The thing that is hard to get about LLMs is that we expected AI to be awesome at math & be all cool logic.
Instead, AI is best at human-like tasks (eg writing) & is all hot, weird simulated emotion. For example, if you make GPT-3.5 “anxious,” it changes its behavior! arxiv.org/abs/2304.11111
Fascinating: In 2-hour sprints, AI agents outperform human experts at ML engineering tasks like optimizing GPU kernel. But humans pull ahead over longer periods - scoring 2x better at 32 hours. AI is faster but struggles with creative, long-term problem solving (for now?). metr.org/blog/2024-11...
New paper from Martha Lewis and me:
"Evaluating the Robustness of Analogical Reasoning in Large Language Models"
Preprint:
arxiv.org/pdf/2411.14215
This is a much-extended follow-up on our earlier pre-print on "counterfactual tasks" in letter-string analogies.
🧵
For Science Magazine, I wrote about "The Metaphors of Artificial Intelligence".
The way you conceptualize AI systems affects how you interact with them, do science on them, and create policy and apply laws to them.
Hope you will check it out!
www.science.org/doi/full/10....