👍
@thibau.lt
🌟 Head of Digital @ Paperjam | 🚀 CX, AI & Business Analysis Expert | 🎨 Service & UX Designer | 🧱 LEGO® Serious Play® Facilitator | 💡 Turning ideas into impactful solutions | 🌍 Exploring the intersection of creativity & technology | 📍 Talks on AI
👍
Funny thing: back in the day I manually exported all my ChatGPT conversations and fed them into Claude Cowork to get a similar result – and used that to spin up projects.
Nice to see this becoming a first‑class feature instead of a hacky workaround.
Finally. This is exactly the kind of bridge we needed between AI tools.
Anthropic now lets you import your “memory” from other providers into Claude with a single copy‑paste. No more starting from scratch with your preferences, workflows and context.
claude.com/import-memory
Reply to no reply please. Thanks. We'll not read it anyway.
Indeed it is. And it always has. It’s so easy to go around that, in the end, you’ve only damaged privacy without actually fixing the problem you claimed to solve.
In places with weak ID systems, it’s even worse: facial scans, offshore verification vendors, and zero real oversight. All to enforce a rule that’s trivial to bypass.
To “prove” we’re protecting kids, platforms are pushed to collect IDs, biometrics, and endless logs—then keep them around to satisfy regulators. Meanwhile, teens still route around the checks, and the only guaranteed outcome is more surveillance for everyone.
Age verification on the internet isn’t a bug, it’s a trap.
spectrum.ieee.org/age-verific...
If your city is considering or already using these systems, now’s the time to push back — in council meetings, in the press, and in public.
These cameras quietly log where you go and when, at scale, and access can end up in the hands of federal agencies like ICE through local police sharing. Even when companies say “we don’t work with X,” the data often finds its way there anyway.
As they should.
People across the US are literally cutting down and smashing Flock’s license plate reader cameras — because this kind of networked surveillance is just too dangerous.
techcrunch.com/2026/02/23/...
Did you know that Coolors — “the super fast color generator” — doesn’t actually generate any?
It pulls them from a premade list.
Don't take my word for it:
1) Go to coolors.co/generate
2) Copy the first hex from the URL
3) Search it in their bundled JS (cmd/ctrl + f) coolors.co/assets/js/di...
Show HN: Babyshark – Wireshark made easy (terminal UI for PCAPs) github.com/vignesh07/ba... from Hacker News via #gcufeed@libera.chat / gcu.info/gruik/
Difficile d'avoir de la traction quand tu te lances pays par pays aussi :/ horizon world toujours pas dispo chez moi 😁
Ce qui laisse le champ libre a des éditeurs tiers qui regroupent plus d'utilisateurs
Le vrai sujet pour moi, c’est pas “ouin ouin les méchants qui trichent avec l’IA”, c’est : si tes parcours de formation sont tellement déconnectés du réel que les gens préfèrent demander à une machine… c’est peut‑être ton design pédagogique, ta culture et tes incentives qu’il faut revoir, non ?
Franchement, vous avez déjà fait leurs assessments interminables et relous ? Moi oui. Une horreur. Évidemment que les gens vont sortir ChatGPT/Claude/&co pour aller plus vite.
www.brief.news/ai/2026/02/...
Amende, re‑test, scandale au Sénat, et maintenant promesse de “mieux encadrer” l’IA en interne.
C’est fou ça… enfin, pas tant que ça 😅
KPMG Australie vient d’avouer que plus de deux douzaines de personnes ont utilisé de l’IA pour tricher à des exams internes — dont un partner qui a utilisé de l’IA pour réussir… un test d’éthique sur l’IA.
Si la vie numérique hors Apple/Google te titille — sans basculer en mode « moine numérique » — ce genre de récit concret aide vraiment à voir à quoi ressemble la transition dans la vraie vie.
Je trouve l’article vraiment complet et cool. De mon côté, j’ai aussi commencé à remplacer pas mal de mes apps par des équivalents open‑source (via F‑Droid notamment) et ça marche étonnamment bien pour une grosse partie de mon usage.
Je viens de finir un excellent retour d’expérience sur GrapheneOS (Android durci sans Google) : installation sur Pixel, profils multiples, private space, contrôle ultra fin des permissions, et un gros focus sur les alternatives open‑source au quotidien.
blog.tomaszdunia.pl/grapheneos-...
🔔 New blogpost: Eight Years Following a Vision: What I Learned About Innovation Leadership at Smile 🔗 Read more: thibaultmilan.com/blog/2026/02...
C’est trop trop cool comme avancée : moins de gaspillage, plus de réemploi, de dons, de réparation, et un textile plus circulaire en Europe. 💚
À partir du 19 juillet 2026, les grandes entreprises n’auront plus le droit de détruire ces stocks (sauf rares cas de sécurité), et devront déclarer ce qu’elles jettent. Les entreprises moyennes suivront en 2030.
Chaque année, 4–9 % des textiles invendus partaient à la benne, soit ~5,6 millions de tonnes de CO₂, presque les émissions annuelles de la Suède.
L’UE vient de franchir une étape majeure 🧵
De nouvelles règles interditent progressivement la destruction des vêtements, accessoires et chaussures invendus.
environment.ec.europa.eu/news/new-eu...
« Référence absolue » : quand le chatbot officiel de la santé conseille d'insérer des fruits dans le rectum.
Afin d’aider les Américains à « obtenir de vraies réponses sur la vraie nourriture », il est possible de poser une question sur le site gouvernemental, qui redirige tout internaute vers Grok
Quand tu vois l'autonomie des lunettes quand tu fais de la prise de vue je pense qu'on a le temps de voir venir. Mais pour les usa c'est pas une super bonne nouvelle.
When every service plugs into the same third‑party verifier, one exploit quietly scales across Discord, Twitch, Kick, Snapchat… It’s not really safety tech, it’s outsourced trust with a shared single point of failure.
A couple of devs just showed how easy it is to bypass Discord’s k‑id / FaceAssure selfie check: no fake selfies, just generating the right encrypted metadata and prediction arrays, and suddenly you’re “verified” as an adult.