Workflow
KOL
icon
Search documents
X @IcoBeast.eth🦇🔊
IcoBeast.eth🦇🔊· 2025-07-06 16:34
The number is more like 14, but yes - the sad state of affairsErika Lee (@erikaleetv):your favorite KOL isn't replying to you they actually have 3 interns 😭 https://t.co/RoYaotaO8o ...
X @Xeer
Xeer· 2025-06-29 03:34
你最爱的加密KOL背后的团队:- 2个代笔写手- 7个留言控评小弟- 5人摄制团队- 4个视频剪辑师- 3个Discord管理员- 1位前麦肯锡内容策划- 5个AI提示词工程师- 3个贴纸设计师- 1个人生教练- 2个化妆师- 69个 @yapyo_arb 发言机器要成就 @waleswoosh 这种人设,不是一两个人的事,是一整个军队的努力。你以为容易? ...
X @Xeer
Xeer· 2025-06-28 07:53
RT Xeer (@Xeer)the team behind your favorite crypto KOL:- 2 ghostwriters- 7 reply guys- 5 man film crew- 4 editors- 3 discord mods- 1 ex mckinsey content strategist- 5 ai prompt engineers- 3 sticker designers- 1 accountability coach- 2 makeup artist- 69 yapyo yappersit takes an army people. you think it's easy to be @waleswoosh? ...
X @Xeer
Xeer· 2025-06-28 02:17
the team behind your favorite crypto KOL:- 2 ghostwriters- 7 reply guys- 5 man film crew- 4 editors- 3 discord mods- 1 ex mckinsey content strategist- 5 ai prompt engineers- 3 sticker designers- 1 accountability coach- 2 makeup artist- 69 yapyo yappersit takes an army people. you think it's easy to be @waleswoosh? ...
X @Xeer
Xeer· 2025-06-27 17:07
all your favorite KOLs virtue signaling.but you know every single one of them has a price.and it's probably lower than you think 🫣.wale.moca 🐳 (@waleswoosh):A crypto company is currently trying to buy up some CT influencer accounts, I've seen a couple DMs going around.Not just paying for content, but actually buying it, full and permanent transfer of ownership of the account.Targeting top 100 of CT mindshare.Offers range from ...
X @Ignas | DeFi
Ignas | DeFi· 2025-06-27 08:52
RT Pink Brains (@PinkBrains_io)Kaito is not going to replace KOL agencies, it turns good agencies into better ones.In a recent campaign, we worked with 19 KOLs and reached over 440,000 impressions, while a Kaito Earn campaign was also live.Kaito adds 2 key advantages:1/ More incentivesKOLs are more motivated when there’s an extra reward layer. Many go beyond the paid package to stay on the leaderboard, which ends up benefiting the project.2/ More transparent performanceKaito and other ranking tools make it ...
The Modern Dad's Aha Moments | Jan Staněk | TEDxBrno
TEDx Talks· 2025-06-24 15:40
Byl krásný červnový den odpoledne. Dočetl jsem takovou útlou knížku a najednou se dívám na svoji ruku, jak stoupá vzhůru. Pak se dívám na tu druhou a fascinovaně jsem zjistil a byl to jeden z největších aha momentu mého života, že ovládám vlastní tělo, že moje svobodná vůle ovládá a vytváří vědomí a vědomě ovládá moje tělo.Bylo mi sedm let. Seděl jsem v paneláku v Bohunicích a psal rok 1982. Pak střih a v lednu 1995 Honza si zbalil uzlíček a jel do světa, protože se chtěl naučit anglicky a jak to udělat, kd ...
Seni Yang Mendengar: Ketika Tubuh Kita Bicara, Dunia Mendengar | Dibal Ranuh | TEDxYouth@MISJ
TEDx Talks· 2025-06-18 16:32
[Tepuk tangan] Art voice inclusive collaboration of resource. Bayangkan kalau satu pesan WhatsApp bisa merubah hidup seseorang. Beberapa waktu lalu ada seorang gadis yang mengirim WhatsApp kepada saya yang isinya sangat singkat.Kenapa semua orang jahat. Saya terdiam. Saya rasa ikut terpukul sedih.Tapi justru dari pertanyaan itu saya menemukan panggilan saya sebagai seorang seniman. Dan itu adalah perubahan besar bagi Salsa. bagi saya dan mungkin buat kita semua.Oke, saya di Balkan Ranu. Saya sebagai creativ ...
Nie miej raka w d.... | prof. dr hab. n. med. Jarosław Kobiela | TEDxWrzeszcz
TEDx Talks· 2025-06-18 16:06
[Muzyka] Szanowni państwo, kto z państwa ma raka jelita grubego? Nikt. A kto miał raka jelita grubego? No na pewno miała Tina Tarner, miał Pele, miała królowa Elżbieta, miał prezydent Stanów Zjednoczonych. Można nawet powiedzieć, że miał Jan Jan Paweł II, ale o tym opowiem wam za chwilę. A kto chciałby mieć raka jelita grubego? Nikt. A co robimy, żeby go nie mieć? Bo prawdopodobieństwo zachorowania jest dosyć duże. To jest drugi po raku płuca najczęstszy nowotwór złośliwy w Polsce. Jest ryzyko. Co my na to? ...
最新发现!每参数3.6比特,语言模型最多能记住这么多
机器之心· 2025-06-04 04:41
GPT 系列模型的记忆容量约为每个参数 3.6 比特。 语言模型到底能记住多少信息?Meta、DeepMind、康奈尔大学和英伟达的一项测量结果显示: 每个 参数大 约 3.6 比特 。一旦达到这个极限,它们就会停止记忆 并开始泛化。 长期以来,记忆与泛化之间的模糊性一直困扰着对模型能力和风险的评估,即区分其输出究竟源于对训练数据的「记忆」 (对其训练数据分布的编码程度) ,还 是对潜在模式的「泛化」理解 (将理解扩展到未见过的新输入)。 这种不确定性阻碍了在模型训练、安全、可靠性和关键应用部署方面的针对性改进。 机器之心报道 编辑:+0、张倩 这就好比我们想知道一个学生考试得了高分,是因为他真的理解了知识点(泛化),能够举一反三,还是仅仅因为他把教科书上的例题和答案都背下来了(记 忆)。 基于此,研究团队提出了一种新方法,用于估计一个模型对某个数据点的「了解」程度,并利用该方法来衡量现代语言模型的容量。 研究团队从形式上将记忆分为两个组成部分: 通过消除泛化部分,可以计算出给定模型的总记忆量,从而估计出模型容量:测量结果估计, GPT 系列模型的容量约为每个参数 3.6 比特 。 研究团队训练了数百个参数量 ...