🌐 #Futurist & Biz Strategist | Enthusiastic about Tech Innovations 🚀 | Committed to positive global impact 🌍 | Let's shape the future together 👥 | budio.ir

London, United Kingdom
Joined February 2009
من خیلی بیش از این‌که از هوش مصنوعی بترسم، از حماقت انسانی وحشت دارم...
عزیزان اشاره کردند که مورد پنجم رو خیلی بد اشتباه کردم و کلاً نادیده بگیرید، دقیقا یک ثانیه قبلش همان ترجمه صالح حسینی را به دختر داد. یه لحظه احساس هرکول پوآرو داشتم که خب بنظر میاد کاراگاه علوی بیش نبودم...
فیلم #پیرپسر رو دیدم و چون همه احتمالاً دیدند و درباره‌اش صحبت شده من فقط چند تا نکته ریز بگم و تک مضراب بزنم و برم. اول: خب حسن پورشیرازی بزرگترین نقطه قوت فیلم بود و بجز داوودنژاد بقیه معمولی بودند. دوم: طراح صحنه نمره‌اش 20/20، میتونم بگم در این بخش در حد فیلمهای علی حاتمی خوب بود. سوم: بقول یکی از دوستانم این فیلم اگر کتاب میشد جذابتر بود، یکم اکت و عکس‌العمل‌ها غیرواقعی بود، بخصوص در شرایط خشم و تحقیر خیلی رفتارها کاغذی جلوه میداد. در کل فیلمنامه حتماً خوب و البته تدوین عالی بود. چهار: یک قاب و سکانسی که ندیدم کسی بهش اشاره کند، لوکیشن سمساری غمخوار و اون تابلو مسجد روبرویش 😉 پنج: سکانس بعدی در اوایل فیلم در کتابفروشی حامد بهداد که میخواست برادران کارامازوف (مشخصاً الهام‌بخش اصلی داستان) را به دختر مشتری بدهد، ترجمه احد علیقلیان رو نشونش داد ولی ایشون در نهایت با اینکه گفت بخاطر شما خریدمش! ترجمه دوجلدی صالح حسینی رو موقع خرید برداشت و با توجه به کتاب‌نشناسی و مشخصاً اینکاره نبودن دختر و با عنایت به برچسب‌هایی که به دختر در این سکانس گفته می‌شود، قضاوت رو برعهده خود صالح حسینی می‌گذارم.😂 شش: سکانس و تیتراژ پایانی فیلم که اشاره به مستند نیمه‌تمام و روح‌مانند! خود علی داشت، خیلی خوب بود و استاندارد فیلم رو بالا برد، اشاره مستقیم به نادرشاه اونم در دو تابلو با مکث! هم جالب بود. هفت: تابلوی «مسیح مرده» هم خیلی خوب محبوس و مدفون بودن یک بیگناه و معصوم، در قبری میان حصار خانه را تصویر و ارجاع داده بود، از این مدل جزئیات خوشم میاد. هشت: اکثر موسیقی‌ها بویژه آنهایی که در بک‌گراند بودند خیلی حساب شده و بعضاً گل‌درشت انتخاب شده بودند، ولی در کل قابل قبول بود. هشت: کلاً فیلم خوب و استانداردی بود و حدس میزنم دقایقی از فیلم هم حذف شده است، بخصوص برای کاراکتر رضا که کم پرداخت شده بود.
2
1
1
17
چیپ‌های جادویی که انرژی را بازیافت می‌کنند: راز Vaire برای نجات هوش مصنوعی شرکت Vaire Computing (@VaireHQ) یک استارت‌آپ بریتانیایی است که در سال ۲۰۲۱ تأسیس شده است و بر ساخت سخت‌افزارهای کامپیوتری با مصرف انرژی نزدیک به صفر (near-zero energy computing) تمرکز دارد. این شرکت گفته است که هدفش حل بحران مصرف انرژی در هوش مصنوعی (AI) است، جایی که دیتاسنترها سالانه میلیاردها کیلووات ساعت برق مصرف می‌کنند و گرمای زیادی تولید می‌کنند. Vaire مدعی است با فناوری نوآورانه‌اش، چیپ‌هایی می‌سازد که انرژی را بازیافت می‌کنند و نیاز به سیستم‌های خنک‌کننده پیچیده را کاهش می‌دهند. بنیان‌گذاران آن رودولفو روزینی (Rodolfo Rosini) به عنوان مدیرعامل و دکتر هانا ایرلی (Dr. Hannah Earley) به عنوان مدیر فنی هستند. فناوری کلیدی Vaire بر پایه محاسبات برگشت‌پذیر (Reversible Computing) است. در چیپ‌های معمولی، محاسبات یک‌طرفه هستند: در هر گیت ورودی‌ها به خروجی تبدیل می‌شوند و اطلاعات ورودی به عنوان گرما هدر می‌رود. اما در Reversible Computing، فرآیند محاسباتی زمان‌برگشت‌پذیر (time-reversible) است، یعنی می‌توان از خروجی به ورودی برگشت و انرژی را حفظ کرد. این ایده از اصل لانداور (Landauer's principle) الهام گرفته شده که می‌گوید حذف بیت‌های اطلاعات حداقل انرژی مصرف می‌کند (حدود ۰.۰۱۸ الکترون‌ولت در دمای اتاق). Vaire می‌گوید که با جلوگیری از حذف اطلاعات، انرژی را بازیافت می‌کند و گرما را به حداقل می‌رساند. برای عملی کردن این مهم، براساس اون چیزی که من در سپیدنامه خواندم، Vaire از محاسبات آدیاباتیک (Adiabatic Computing) استفاده می‌کند، جایی که ترانزیستورها به آرامی عمل می‌کنند تا انرژی به عنوان گرما تلف نشود و به یک مفهوم دو طرفه عمل می‌کنند!. مثلاً در یک مدار تشدید یا ال‌سی (LC resonator)، انرژی مثل یک پاندول و نوسان‌گر (oscillator) جلو و عقب می‌رود و بازیافت می‌شود. چیپ آزمایشی آن‌ها به نام Ice River در فرآیند ۲۲ نانومتری CMOS ساخته شده و در آزمایشات نشان داده که می‌تواند انرژی را بازیافت کند (گویا حدود ۵۰ درصد انرژی را بازمی‌گرداند). این چیپ یک جمع‌کننده برگشت‌پذیر (reversible adder) دارد که در اوایل ۲۰۲۵ برای تولید ارسال شد. Vaire پیش‌بینی می‌کند چیپ‌هایش تا ۴۰۰۰ برابر (!!) کارآمدتر از دستگاه‌های فعلی باشند، بدین شکل که با بهبود سرعت توکن‌ها، توان عملیاتی (throughput) را افزایش داده و تأخیر (Latency) را بدون افزایش مصرف برق، کاهش میدهد. پینوشت: این چیزی که این شرکت ادعا می‌کند واقعاً خیلی رویایی است و صادقانه جهالت عمیقی نسبت به بخش بزرگ از جزئیات فنی و چگونگی کارکرد آن دارم، ولی با فرض صحت ادعا، همانطور که در پست قبلی (شرکت اکستروپیک) عرض کردم، چنین فناوری‌هایی در عصر AI حیاتی است. با رشد مدل‌های بزرگ زبانی، مصرف انرژی جهانی محاسبات تا ۲۰۳۰ حداقل دو برابر می‌شود و برخی پیش‌بینی‌ها می‌گویند دیتاسنترها 3-5 درصد برق جهان را خواهند بلعید. Vaire با کاهش گرما، امکان تراکم بیشتر درون چیپ‌ها را فراهم می‌کند و هزینه‌های عملیاتی را پایین می‌آورد. علاوه بر این، بنظر من برای کاربردهایی مثل دستگاه‌های موبایل یا خودروهای خودران که باتری محدود دارند، ایده‌آل است. این شرکت تا حالا ۴.۵ میلیون دلار سرمایه جذب کرده و بخش‌های فنی آن در مجلاتی مثل IEEE Spectrum و EE Times پوشش داده شده. سپیدنامه‌های (whitepapers) منتشر شده ایشان جزئیات معماری‌های جدید را توضیح می‌دهند. در کل، Vaire ادعا میکند می‌تواند محدودیت‌هایی و تشکیکی را که اخیراً برخی به قانون مور وارد می‌کنند (بدلایل رسیدن به محدودیتهای فیزیکی پردازنده‌ها)، دور زده و با مصرف انرژی کمتر قانون مور همچنان ادامه یافته و AI را پایدارتر کند.
انقلاب در تراشه‌ها: کامپیوتری که با نویز کار می‌کند، نه منطق! اکستروپیک - Extropic، استارتاپی از سان‌فرانسیسکو است که توسط «Guillaume Verdon» معروف به Beff Jezos، مهندس سابق Google X و Quantum AI، در سال ۲۰۲۲ تأسیس شد. هدف آن ساخت نوع جدیدی از رایانه و پردازشگر بوده است: کامپیوتر احتمالاتی ترمودینامیکی. این سیستم از نویز حرارتی (همان نوسانات طبیعی الکترون‌ها) نه به عنوان مزاحم (که معمولاً عامل ایجاد خطا است و کلی الگوریتم برای رفع آن وجود دارد)، بلکه به عنوان سوپرپاور محاسباتی استفاده می‌کند. هسته‌ی فناوری Extropic تراشه‌ای است به نام TSU (Thermodynamic Sampling Unit)، نخستین رایانه‌ی مقیاس‌پذیر مبتنی بر p-bit، یعنی بیت‌های احتمالی که به جای ۰ یا ۱ قطعی، مانند سکه‌ای با احتمال تنظیم‌پذیر (مثلاً ۶۰٪ شیر) عمل می‌کنند. شبکه‌ای از p-bitها از طریق فرآیند Gibbs Sampling محاسبات احتمالاتی را انجام می‌دهد، به بیان ساده، این سخت‌افزار به جای اینکه فقط جواب «درست یا غلط» بدهد، با نمونه‌گیری از توزیع‌های احتمالی تصمیم می‌گیرد، مشابه کاری که مغز انسان انجام می‌دهد. (خیلی دقت کنید که کلاً با پردازشگرهای کوانتومی متفاوت است و اشتباه نشود) نسل جدید مدل Extropic، یعنی DTM (Denoising Thermo Model)، نسخه‌ی فیزیکی مدل‌های diffusion است که داده‌هایی مانند تصاویر را با مصرف انرژی هزاران برابر کمتر از GPU تولید می‌کند (بدون نیاز به هزاران ضرب‌ماتریس سنگین مانند GPUها). نتیجه، مصرف انرژی بسیار کمتر و سرعت بالاتر در وظایف احتمالی است، از جمله در مدل‌های زایشی (Generative AI) که متن یا تصویر تولید می‌کنند، یا در شبیه‌سازی‌های علمی پیچیده مثل پیش‌بینی هوا و مدل‌های مالی. Extropic همچنین یک کتابخانه پایتون متن‌باز به نام THRML ارائه کرده که به پژوهشگران اجازه می‌دهد الگوریتم‌های ترمودینامیکی را شبیه‌سازی کرده و برای اجرای واقعی روی TSU آماده کنند. اهمیت این دستاورد در آن است که می‌تواند بحران انرژی در عصر هوش مصنوعی را حل کند: مدل‌هایی مانند GPT-5 به مقادیر عظیم برق نیاز دارند، اما تراشه‌های Extropic براساس ادعای ایشان تا ۱۰,۰۰۰ برابر کم‌انرژی‌تر کار می‌کنند، در دمای اتاق و بدون نیاز به خنک‌کننده کوانتومی. با این حال، فناوری هنوز در مراحل اولیه‌ی اثبات است. اگر ادعاهای آن در مقیاس بزرگ تأیید شوند، Extropic می‌تواند مسیر جدیدی در محاسبات باز کند، راهی بین هوش مصنوعی کلاسیک و کوانتومی، و شاید رقیبی جدی برای انویدیا در عصر بعدی پردازش. **** پینوشت 1 و ضروری: این آقای Verdon از خوبهای Post-Humanism است و بنیان‌گذار جنبش e/acc (Effective Accelerationism) است و بی‌وقفه این جنبش تکنو-اپتیمیسم رادیکال را ترویج می‌دهد (خداش خیر دهاد). این جنبش بر شتاب‌دهی حداکثری پیشرفت فناوری (به ویژه AI) بدون ترمزهای ایمنی بیش از حد تأکید دارد، این جنبش مخالف "decels" (کُندکننده‌ها) و doomers (بدبین‌های AI) است و e/acc باور دارد تسریع نوآوری، entropy جهان را افزایش می‌دهد، مقیاس کارداشف را بالا می‌برد و درنهایت مشکلات بشر (فقر، جنگ، اقلیم) را حل می‌کند. همچنین گول ظاهر این عزیز را نخورده و ایشان یکی از بسیار ترول‌کنندگان و میم‌بازهای قهار اینترنت است. پینوشت2: این ویدیو هم با کمک سرویس @iSegar0 ترجمه و زیرنویس‌دار شده است. وی نیز خداش خیر فراوان دهاد.
1
6
24
0
فیلم #پیرپسر رو دیدم و چون همه احتمالاً دیدند و درباره‌اش صحبت شده من فقط چند تا نکته ریز بگم و تک مضراب بزنم و برم. اول: خب حسن پورشیرازی بزرگترین نقطه قوت فیلم بود و بجز داوودنژاد بقیه معمولی بودند. دوم: طراح صحنه نمره‌اش 20/20، میتونم بگم در این بخش در حد فیلمهای علی حاتمی خوب بود. سوم: بقول یکی از دوستانم این فیلم اگر کتاب میشد جذابتر بود، یکم اکت و عکس‌العمل‌ها غیرواقعی بود، بخصوص در شرایط خشم و تحقیر خیلی رفتارها کاغذی جلوه میداد. در کل فیلمنامه حتماً خوب و البته تدوین عالی بود. چهار: یک قاب و سکانسی که ندیدم کسی بهش اشاره کند، لوکیشن سمساری غمخوار و اون تابلو مسجد روبرویش 😉 پنج: سکانس بعدی در اوایل فیلم در کتابفروشی حامد بهداد که میخواست برادران کارامازوف (مشخصاً الهام‌بخش اصلی داستان) را به دختر مشتری بدهد، ترجمه احد علیقلیان رو نشونش داد ولی ایشون در نهایت با اینکه گفت بخاطر شما خریدمش! ترجمه دوجلدی صالح حسینی رو موقع خرید برداشت و با توجه به کتاب‌نشناسی و مشخصاً اینکاره نبودن دختر و با عنایت به برچسب‌هایی که به دختر در این سکانس گفته می‌شود، قضاوت رو برعهده خود صالح حسینی می‌گذارم.😂 شش: سکانس و تیتراژ پایانی فیلم که اشاره به مستند نیمه‌تمام و روح‌مانند! خود علی داشت، خیلی خوب بود و استاندارد فیلم رو بالا برد، اشاره مستقیم به نادرشاه اونم در دو تابلو با مکث! هم جالب بود. هفت: تابلوی «مسیح مرده» هم خیلی خوب محبوس و مدفون بودن یک بیگناه و معصوم، در قبری میان حصار خانه را تصویر و ارجاع داده بود، از این مدل جزئیات خوشم میاد. هشت: اکثر موسیقی‌ها بویژه آنهایی که در بک‌گراند بودند خیلی حساب شده و بعضاً گل‌درشت انتخاب شده بودند، ولی در کل قابل قبول بود. هشت: کلاً فیلم خوب و استانداردی بود و حدس میزنم دقایقی از فیلم هم حذف شده است، بخصوص برای کاراکتر رضا که کم پرداخت شده بود.
نایب‌الزیارة دوستان هستم در کنسرت Metal Gear در رویال آلبرت هال و تقریبا همه نردهای لندن و حومه اینجا هستند، البته تک و توک افراد معمولی هم هستند که مشخصه اونها رو پارتنرهایشان آوردند.
2
95
انقلاب در تراشه‌ها: کامپیوتری که با نویز کار می‌کند، نه منطق! اکستروپیک - Extropic، استارتاپی از سان‌فرانسیسکو است که توسط «Guillaume Verdon» معروف به Beff Jezos، مهندس سابق Google X و Quantum AI، در سال ۲۰۲۲ تأسیس شد. هدف آن ساخت نوع جدیدی از رایانه و پردازشگر بوده است: کامپیوتر احتمالاتی ترمودینامیکی. این سیستم از نویز حرارتی (همان نوسانات طبیعی الکترون‌ها) نه به عنوان مزاحم (که معمولاً عامل ایجاد خطا است و کلی الگوریتم برای رفع آن وجود دارد)، بلکه به عنوان سوپرپاور محاسباتی استفاده می‌کند. هسته‌ی فناوری Extropic تراشه‌ای است به نام TSU (Thermodynamic Sampling Unit)، نخستین رایانه‌ی مقیاس‌پذیر مبتنی بر p-bit، یعنی بیت‌های احتمالی که به جای ۰ یا ۱ قطعی، مانند سکه‌ای با احتمال تنظیم‌پذیر (مثلاً ۶۰٪ شیر) عمل می‌کنند. شبکه‌ای از p-bitها از طریق فرآیند Gibbs Sampling محاسبات احتمالاتی را انجام می‌دهد، به بیان ساده، این سخت‌افزار به جای اینکه فقط جواب «درست یا غلط» بدهد، با نمونه‌گیری از توزیع‌های احتمالی تصمیم می‌گیرد، مشابه کاری که مغز انسان انجام می‌دهد. (خیلی دقت کنید که کلاً با پردازشگرهای کوانتومی متفاوت است و اشتباه نشود) نسل جدید مدل Extropic، یعنی DTM (Denoising Thermo Model)، نسخه‌ی فیزیکی مدل‌های diffusion است که داده‌هایی مانند تصاویر را با مصرف انرژی هزاران برابر کمتر از GPU تولید می‌کند (بدون نیاز به هزاران ضرب‌ماتریس سنگین مانند GPUها). نتیجه، مصرف انرژی بسیار کمتر و سرعت بالاتر در وظایف احتمالی است، از جمله در مدل‌های زایشی (Generative AI) که متن یا تصویر تولید می‌کنند، یا در شبیه‌سازی‌های علمی پیچیده مثل پیش‌بینی هوا و مدل‌های مالی. Extropic همچنین یک کتابخانه پایتون متن‌باز به نام THRML ارائه کرده که به پژوهشگران اجازه می‌دهد الگوریتم‌های ترمودینامیکی را شبیه‌سازی کرده و برای اجرای واقعی روی TSU آماده کنند. اهمیت این دستاورد در آن است که می‌تواند بحران انرژی در عصر هوش مصنوعی را حل کند: مدل‌هایی مانند GPT-5 به مقادیر عظیم برق نیاز دارند، اما تراشه‌های Extropic براساس ادعای ایشان تا ۱۰,۰۰۰ برابر کم‌انرژی‌تر کار می‌کنند، در دمای اتاق و بدون نیاز به خنک‌کننده کوانتومی. با این حال، فناوری هنوز در مراحل اولیه‌ی اثبات است. اگر ادعاهای آن در مقیاس بزرگ تأیید شوند، Extropic می‌تواند مسیر جدیدی در محاسبات باز کند، راهی بین هوش مصنوعی کلاسیک و کوانتومی، و شاید رقیبی جدی برای انویدیا در عصر بعدی پردازش. **** پینوشت 1 و ضروری: این آقای Verdon از خوبهای Post-Humanism است و بنیان‌گذار جنبش e/acc (Effective Accelerationism) است و بی‌وقفه این جنبش تکنو-اپتیمیسم رادیکال را ترویج می‌دهد (خداش خیر دهاد). این جنبش بر شتاب‌دهی حداکثری پیشرفت فناوری (به ویژه AI) بدون ترمزهای ایمنی بیش از حد تأکید دارد، این جنبش مخالف "decels" (کُندکننده‌ها) و doomers (بدبین‌های AI) است و e/acc باور دارد تسریع نوآوری، entropy جهان را افزایش می‌دهد، مقیاس کارداشف را بالا می‌برد و درنهایت مشکلات بشر (فقر، جنگ، اقلیم) را حل می‌کند. همچنین گول ظاهر این عزیز را نخورده و ایشان یکی از بسیار ترول‌کنندگان و میم‌بازهای قهار اینترنت است. پینوشت2: این ویدیو هم با کمک سرویس @iSegar0 ترجمه و زیرنویس‌دار شده است. وی نیز خداش خیر فراوان دهاد.
شرکت @1x_tech با غافلگیری ربات نئو را معرفی کرد که شما می‌توانید با 500 دلار در ماه بصورت سابسکریپشن نسخه استاندارد آن را تهیه کرده و با 20هزار دلار نسخه پریمیوم با سه سال گارانتی را داشته باشید. من سه سال پیش گفته بودم قیمت تقریباً در این حدود شروع خواهد شد و بتدریج برای مدل‌های مشابه زیر 10هزار دلار خواهد. با توجه به امکاناتی که در ویدیو معرفی (که دقایقی پیش منتشر شده است) گفته شد، بنظرم کاملاً هم قیمت یک خودرو ارزان قیمت است و برای بسیاری در کشورهای توسعه یافته قابل تحصیل است. البته که 1X شاید به‌روزترین و بهترین شرکت این حوزه نباشد ولی در شرکتهای آمریکایی چون بدین شکل برای استفاده عمومی در منزل پلن فروشش را ارائه داده قاعدتاً از مزیت پیشگامی برخوردار خواهد بود و بقیه را به تکاپو خواهد انداخت. ولی من اگر میخواستم شرط ببندم در «شرکتهای آمریکایی» روی Figure و البته Optimus هم شرط میبستم. ویدیو معرفی ربات Neo از شرکت ربوبتیک 1X زیرنویس فارسی تقریباً در کمتر از 1 دقیقه به کمک سرویس شهاب عزیزم @iSegar0 تهیه شده است. از این لینک زیر هم می‌توانید در یوتیوب ویدیو اصلی را هم مشاهده کنید. piped.video/watch?v=LTYMWadO…
من امشب فیلم Long Walk را تماشا کردم و برخلاف انتظارم فیلم خیلی خوب از کار دراومده بود، اگر شرایط حضور در اسکار را داشته باشد، بنظر من آقای David Jonsson شانس خوبی برای اسکار بهترین بازیگر/مکمل مرد را دارد. فیلم خواسته روایت خاص خودش از کتاب را داشته باشد که موفق هم بوده، ولی بنظرم پایان کتاب بهتر بود. ولی نقطه طلایی فیلم بازی درخشان دیوید جانسن بود. بعنوان یک بریتیش خیلی خوب نقش رو درآورده... پینوشت 1: اگر وقتش را دارید، طبق معمول اینبار هم کتاب با اینکه خیلی قدیمی‌ است، ولی جذابتر و عمیق‌تر از فیلم است، هم در رمزگذاری المانها و هم شخصیت‌پردازی... پینوشت 2: فکر میکنم احساس ایرانی‌ها نسبت به فیلم کمی متفاوت از دیگران باشد.
1
18
یکی از قشنگ‌ترین و حکیمانه‌ترین حرف‌هایی که در کنفرانس بلاک‌چین لندن شنیدم از ریچارد بیکر، مدیرعامل Tokenovate بود که گفت: «امیدوارم پنج سال بعد دیگر کنفرانسی به نام بلاک‌چین نداشته باشیم، چون بلاک‌چین بخشی از زیرساخت اینترنت مدرن شده باشد.» به نظرم این یعنی بلوغ واقعی فناوری؛ وقتی دیگه «جدید» نیست، بلکه بخشی از زندگی ماست.
4
2
2
107
گوگل دیروز اعلام کرده که با چیپ کوانتومی جدیدش به نام Willow، که ۱۰۵ کیوبیت داره، الگوریتم Quantum Echoes رو اجرا کرده که ۱۳۰۰۰ برابر سریع‌تر از سوپرکامپیوترهای کلاسیک عمل می‌کنه. این کار برای شبیه‌سازی برهم‌کنش‌های اتمی با استفاده از رزونانس مغناطیسی هسته‌ای (NMR) هست و اولین مزیت کوانتومی قابل تکرار روی سخت‌افزارهای دیگه رو نشون می‌دهد. این پیشرفت، که در مجله Nature منتشر شده، بر اساس دستاوردهای ۲۰۱۹ و ۲۰۲۴گوگل ساخته شده و با سرکوب و اصلاح خطاها، مدل‌سازی دقیق مولکول‌های ۱۵ تا ۲۸ اتمی رو ممکن می‌کنه (چیزی که NMR سنتی نمی‌تونه انجام بده). کاربردهاش می‌تونه در کشف دارو (مثل پیدا کردن نقاط اتصال داروها) و طراحی مواد مثلا در باتری‌های جدید باشد.
شکستن مرزهای زمان و محاسبه: جهش کوانتومی گوگل با تراشه‌ی Willow، لطفا 10 سپتیلیون سال دیگر تشریف بیاورید! گوگل با ارائه‌ی تراشه‌ی کوانتومی جدید خود با نام «Willow» گامی بزرگ در جهت دستیابی به رایانش کوانتومی مقاوم در برابر خطا و مقیاس‌پذیر برداشته است. در آزمون‌های مرجع، این تراشه توانست یک محاسبه‌ی استاندارد را در کمتر از پنج دقیقه انجام دهد؛ محاسبه‌ای که برای یک ابررایانه‌ی پیشرو، بیش از 10^25 سال طول می‌کشید! مدتی بسیار فراتر از عمر کل جهان. این نشان‌دهنده‌ی توان بالقوه‌ی معماری‌های کوانتومی در گشودن افق‌های نوین برای حل مسائل پیچیده‌ی علمی و صنعتی است. این تراشه بر پایه‌ی معماری ماژولار و مبتنی بر کیوبیت‌های ابررسانا طراحی شده که امکان افزایش تعداد کیوبیت‌ها را بدون از دست دادن کیفیت کوانتومی فراهم می‌سازد. طراحی Willow بر تصحیح خطای کوانتومی و رمزگذاری اطلاعات در کیوبیت‌های منطقی تکیه دارد و از کدهای سطح بالا برای کاهش نرخ خطاها در فرایند محاسبات بهره می‌گیرد. با این رویکرد، امید آن می‌رود که ظرفیت اجرای الگوریتم‌های کوانتومی پیچیده، روزبه‌روز افزایش یابد. ویژگی متمایز Willow نه‌تنها در بهبود سخت‌افزار، بلکه در بهره‌گیری از سامانه‌های نرم‌افزاری پیشرفته و ابزارهای شبیه‌سازی مجازی نیز نمود می‌یابد. این ابزارها به پژوهشگران اجازه می‌دهند پیش از تولید فیزیکی، ایده‌ها و طرح‌های خود را در محیطی دیجیتال ارزیابی و بهینه‌سازی کنند. دستاورد این تلاش‌ها دست‌یابی به توان محاسباتی بی‌سابقه‌ای است که همانطور که در ابتدا ذکر شد در مقام مقایسه برای بهترین سوپرکامپیوترهای جهان 10 سپتیلیون! سال طول خواهد کشید به این ترتیب، شاید بتوان گفت Willow آغازگر مسیری است که می‌تواند رایانش کوانتومی را از آزمایشگاه به عرصه‌ی کاربردهای صنعتی، علمی و فناوری بکشاند. لینک مطلب اصلی در بلاگ گوگل: blog.google/technology/resea… #رایانش_کوانتومی #QuantumComputing
3
17
1
364
یه شوخی ریزی درباره اورانیوم غنی‌سازی شده با این دوستان کردم که بنظرم خیلی خوششون نیومد و رنگشون پرید...
هم‌اکنون در London Blockchain Conference رویت شد، خرید و فروش اورانیوم بر روی بلاکچین
2
36
هم‌اکنون در London Blockchain Conference رویت شد، خرید و فروش اورانیوم بر روی بلاکچین
2
1
21
معمولاً اون بخشی از پژوهش‌ها که امکان تجاری‌سازی بالایی ندارند بصورت مقاله منتشر می‌شوند، که یکی از مصداق‌هایش میتونه این مقاله باشد، من حافظه خوبی دارم و خوب یادمه سال ۲۰۲۰ فاندر استارت‌آپ ezra.com در یک سخنرانی از قدرت جانبی! الگوریتم خودشون (یعنی بغیر از کار اصلیشون یعنی تشخیص سرطان) در چنین کاربردهایی هم سخن گفتند. یعنی ۵سال پیش کم و بیش بشکل عملیاتی به چنین چیزی رسیده بودند.
تشخیص سن اندام‌های داخلی تنها با تصویر ام‌آر‌آی!؟ پژوهش تازه‌ای نشان می‌دهد با استفاده از تصویربرداری ام‌آر‌آی، میتوان میزان "سن بیولوژیک" اندام‌های داخلی بدن را تخمین زد. گروهی از دانشمندان با بررسی بیش از ۳۰۰ هزار تصویر ام‌آر‌آی از افراد مختلف، توانستند برای هفت اندام مهم بدن، از جمله مغز، قلب، کبد، کلیه، طحال، لوزالمعده و بافت چربی، نوعی "ساعت زیستی" طراحی کنند که نشان می‌دهد هر اندام تا چه حد پیر یا جوان است. / تفاوت سن شناسنامه ای و بیولوژیک اندام‌ها به دلیل عوامل ژنتیکی، سبک زندگی، تغذیه و حتی استرس شکل می‌گیرد. برای مثال، کسانی که مغز زیستی جوان‌تری داشتند، در آزمون‌های حافظه و هوش، عملکرد بهتری نشان دادند و در برابر بیماری‌هایی مثل آلزایمر مقاوم‌تر بودند. در مقابل، کسانی که مغزشان از نظر زیستی پیرتر بود، سریع‌تر دچار افت شناختی شدند. / این پژوهش همچنین ارتباط جالبی میان اندام‌ها و بیماری‌ها نشان داد. ساعت زیستی قلب با احتمال بالاتر ابتلا به فشار خون و بیماری‌های قلبی در ارتباط بود. ساعت زیستی کلیه و لوزالمعده با خطر دیابت رابطه داشتند، و وضعیت کبد و طحال نیز با طول عمر کلی افراد مرتبط بود. در واقع، هر اندام نقشی جداگانه اما هماهنگ در روند پیری بدن دارد. دانشمندان حتی توانستند چند ژن کلیدی را شناسایی کنند که می‌توانند هدف داروهای ضدپیری در آینده باشند. جالب اینکه برخی از داروهای موجود، مثل داروهای ضدالتهاب یا داروهای مورد استفاده برای دیابت و پارکینسون، شاید بتوانند در کنترل روند پیری در اندام‌های خاص مؤثر باشند. این موضوع راه را برای درمان‌های شخصی‌سازی‌شده باز می‌کند، یعنی در آینده شاید بتوان برای هر فرد نسخه‌ی ضدپیری مخصوص خودش را نوشت. doi.org/10.1038/s41591-025-0…
1
25
استارتاپ Noematrix که در حوزه Embodied Intelligence فعالیت می‌کند، با سرمایه‌گذاری جدیدی به رهبری گروه علی‌بابا، چندصد میلیون یوان (گویا حدود 6 میلیون دلار) جذب کرده تا تحقیق و توسعه، پیاده‌سازی کاربردهای واقعی و گسترش اکوسیستم خود را سرعت بخشد. محصول اصلی آن، Noematrix Brain 2.0، پلتفرمی هوشمند است که ربات‌ها را قادر می‌سازد عادات و محیط کاربران را درک و به خاطر بسپارند. این شرکت با مدل‌های یادگیری پیشرفته و همکاری انسان‌و‌ربات، قصد دارد راه‌حل‌های خود را در صنایع خرده‌فروشی و لوازم خانگی به‌صورت گسترده عرضه کند. بنیان‌گذارانش از پژوهشگران برجسته استنفورد و دانشگاه شانگهای هستند. البته دقت داشته باشید این ویدیو که از این تیم منتشر شده است مال یکسال قبل هست، ولی بخاطر خبر سرمایه‌گذاری در شبکه‌ها وایرال شده است. پینوشت 1: این ربات تا رسیدن به کاربردپذیری در خاورمیانه! راه درازی در پیش دارد. 😅 پینوشت 2: بنظرم فارغ از همه شوخی‌هایی که می‌شود با این ویدیو کرد، خیلی جسورانه و شجاعانه ساخته شده است.
2
24
0
در همین راستا، این بخشی از برنامه دیشب حضرت بیل مار است که در آن آقای مارک کیوبن بعنوان یک میلیاردر و کارآفرین قدیمی حوزه فناوری چند جمله کوتاه می‌گوید که شاید جالب باشد و نشان می‌دهد این ابهام پیش‌رو خیلی جدی است. پینوشت: شهاب عزیزم، کنار همه کارهای ارزشمندش، یک سرویس هم برای ترجمه زیرنویس بالا آورده است، که بوضوح خوب و با کیفیت کار می‌کند. پیشنهاد اکید دارم از آن استفاده کنید: @iSegar0
اقتصاد بی‌رحمِ هوش مصنوعی؛ گویا فقط غول‌ها زنده می‌مانند - - - - آقای Steve Rosenbush دیروز مقاله‌ای در وال‌استریت‌ژورنال منتشر کرده‌اند (wsj.com/articles/ai-economic…) با این عنوان: «اقتصاد هوش مصنوعی بی‌رحم است. تقاضا، متغیرِ تعیین‌کننده است» که بنظر من صورت‌بندی و تحلیل مناسبی داشته است. چون مقاله پشت پی‌وال است خلاصه‌اش را عرض می‌کنم: 🔹🔹🔹🔹 شرکت‌های فعال در حوزه‌ی هوش مصنوعی با سرعتی بی‌سابقه در حال از دست دادن پول هستند و دلایل آن فراتر از یک ولخرجی ساده است. اقتصاد هوش مصنوعی فعلاً علیه آن‌هاست، البته به‌دلایلی که پیش‌تر پیش‌بینی نشده بود!. بسیاری نگران هستند که حباب سرمایه‌گذاری عظیم در هوش مصنوعی ممکن است بترکد و بحرانی در حد حباب دات‌کام (یا حتی بزرگتر از آن) ایجاد کند. دغدغه‌ها درباره‌ی هزینه‌های سرمایه‌ای، ارزش‌گذاری‌های نجومی، سطح بدهی و روال ظاهراً مشکوک چرخه‌ی بسته‌ی سرمایه‌گذاری شرکت‌های AI در یکدیگر افزایش یافته است. و جالب این‌که احتمالاً حتی محتمل‌ترین برندگان آینده، اکنون میلیاردها دلار زیان می‌دهند. پیش‌بینی آینده‌ی این روند در بازارهای مالی دشوار است، اما بنظر نویسنده باید به تقاضا برای هوش مصنوعی «برحسب حجم داده‌های پردازش‌شده» توجه کرد. این تقاضا در حال انفجار است و مسیر کل صنعت به آن بستگی دارد. به گفته‌ی «هیث تری» از شرکت Citi، اشتباه مهم سال گذشته این بود که رهبران صنعت فقط بر کاهش هزینه‌ی واحد محاسبات تمرکز کردند (که محقق هم شد و هزینه توکن‌ها فقط در سال گذشته 75% کاهش یافته است)، اما فراموش کردند که تعداد واحدهای لازم برای انجام کار به‌طور چشمگیر افزایش می‌یابد. البته که انتظار هم می‌رفت با کاهش قیمت، استفاده بالا برود، اما رشد مصرف کاملاً «نمایی و غیرقابل‌کنترل» شد، وضعیتی مشابه با مدل اولیه‌ی Uber که برای ایجاد بازار، یکجورهایی دامپینگ می‌کرد! و سفرها را با زیان قیمت‌گذاری می‌کرد و با افزایش ناگهانی سفرها تا مرز ورشکستگی پیش‌رفت! (و به لطف تزریق دائمی پول و سرمایه‌گذاری مجدد تعدادی سرمایه‌گذار بسیار باهوش و البته پولدار)... برای مثال گوگل در فروردین ماه امسال اعلام کرد: «سال گذشته ۹.۷ تریلیون توکن در ماه پردازش می‌کردیم، اکنون بیش از ۴۸۰ تریلیون، یعنی ۵۰ برابر.» و جالب اینکه اواسط خرداد گفت: «حالا بیش از ۹۸۰ تریلیون توکن در ماه پردازش می‌کنیم.» و در مهرماه! این رقم به ۱.۳ کوادریلیون رسیده است. در همین حال، تقاضا برای محصولات جدیدی مانند برنامه‌های ساخت ویدیو Sora از OpenAI به‌شدت افزایش یافته و شرکتهای دیگر برای اینکه بتوانند تمایز خود را نشان دهند کارهای متهورانه‌ای کرده‌اند نظیر این‌که مدل Claude Sonnet 4.5 از Anthropic می‌تواند تا ۳۰ ساعت متوالی کدنویسی کند و احتمالاً این نبرد برای تمایز (دقت کنید نه برای اغوای مشتریان، بلکه برای اینکه به سرمایه‌گذار ثابت کنند که اونی که قرار هست برنده بشود ما هستیم و پولت رو از ما دریغ نکن) جنسن هوانگ، مدیرعامل انویدیا، ماه گذشته در پادکست Bg2Pod گفت «محاسبات هوش مصنوعی در نهایت (منظورش تا 2028 بود) یک میلیارد برابر خواهد شد، این همان انقلاب صنعتی است.» با فرض اینکه آقای هوانگ درست پیش‌بینی کرده است، با چنین رشدی ممکن است مدل‌های بهتر، ظرفیت بیشتر مراکز داده و توانایی خودِ AI برای بهبود خودش، در آینده معادله‌ی اقتصادی را تغییر دهند و سرانجام تقاضای عظیم را به سود تبدیل کنند. اما احتمالا!ً بازده همچنان در میان چند بازیگر بزرگ متمرکز خواهد بود. احتمالاً چنین فضایی باعث شده است که حضرت «وینود خوسلا - Vinod Khosla» (یکی از مطرح‌ترین بازیگران سرمایه‌گذاری در حوزه فناوری، که من هیچوقت علیه‌ حرفهایش شرط ‌نمی‌بندم!) همین هفته پیش گفته است: «در سرمایه‌گذاری جسورانه، 6% از سرمایه‌گذاری‌ها 60% بازده را ایجاد می‌کنند. در هوش مصنوعی، احتمالاً 3% از پروژه‌ها بیش از 60% بازده خواهند داشت.» جدا از اینکه وقتی که این گزاره به شکل عمومی گفته می‌شود، درواقع حاوی چه پیامی برای اکوسیستم سرمایه‌گذاری جهان است!؛ نشان ‌میدهد VCها هم نیاز است با متریکس‌های جدیدی به سراغ این حوزه بروند. (البته که من کارمند ساده آقای خوسلو هم نیستم ولی اواخر بهار یک سخنرانی در London VC Summit داشتم که خیلی دقیق این تغییرات رو پیش‌بینی کرده بودم و اینکه سیاست‌گذاری حوزه سرمایه‌گذاری تغییرات جدی خواهد داشت و چگونه باید رفتار کنند) و نتیجه نهایی روشن است: در این حوزه، نیمه‌راه وجود ندارد و توسعه‌ی مدل یا زیرساخت به‌صورت نصفه‌نیمه کافی نیست. این بازی همه یا هیچ است، در مقیاس تریلیون‌دلاری، و سرمایه‌گذاران تا انتها درگیر شده‌اند. تحلیل خود من این است که این متن تصویر نسبتاً درستی از واقعیت امروز هوش مصنوعی می‌دهد: رشد تقاضا نجومی است اما هنوز سودآور نشده است. هزینه‌ی محاسبات از درآمد پیشی گرفته و شرکت‌ها در فاز «زیان برای رشد» گیر کرده‌اند. شباهت آن با دوران دات‌کام در شدت هیجان و نبود سودآوری است، اما تفاوت اصلی اینجاست برخلاف آن دوره تقاضا واقعی است، نه فرضی. فلذا فرضیه ترکیدن حباب خیلی نامحتمل است. در نهایت تنها چند بازیگر بزرگ (مثل متا، گوگل، انویدیا و OpenAI و البته شاید گروک!) احتمالاً سود اصلی را خواهند برد. مسیر پایداری اقتصاد AI در گرو مدل‌های کم‌هزینه‌تر، زیرساخت‌های کارآمدتر و توانایی خودِ هوش مصنوعی برای بهینه‌سازی خودش است که اگرچه در همین مسیر هستیم، ولی این هم قرار نیست به این سادگی باشد و اصلاً شاید برخی ترجیح بدهند خیلی هم پایدار نباشد!! - این هم یادم رفت اضافه کنم، که یک سری اعراضات هم میشه به این تحلیل داشت و خیلی ضدضربه نیست. مثلاً مدل‌هایی که پیش از این چنین انفجارهایی را تجربه کرده‌اند همیشه یک اثر شبکه‌ای مبتنی بر تعداد/انگیجمنت کاربر داشته‌اند، مدل‌های AI بیشتر بر اساس داده‌های آموزشی و قدرت محاسباتی ساخته می‌شوند، نه بر تعاملات کاربری که چرخه virtuous/ارزش‌آفرینی ایجاد کند. مثلاً، یک مدل زبانی مانند ChatGPT ارزشش بیشتر از بهبود الگوریتم‌ها و داده‌ها می‌آید، نه از اینکه کاربران بیشتری از آن استفاده کنند (هرچند داده‌های کاربری می‌تواند کمک کند، اما نه به اندازه مثلاً شبکه‌های اجتماعی) و شاید این در درازمدت حاشیه سود را بسیار پایین‌تر از آنچه پیش‌بینی می‌شود نگه‌دارد. این موضوع خوبی برای فکرورزی است.
4
4
103
0
اقتصاد بی‌رحمِ هوش مصنوعی؛ گویا فقط غول‌ها زنده می‌مانند - - - - آقای Steve Rosenbush دیروز مقاله‌ای در وال‌استریت‌ژورنال منتشر کرده‌اند (wsj.com/articles/ai-economic…) با این عنوان: «اقتصاد هوش مصنوعی بی‌رحم است. تقاضا، متغیرِ تعیین‌کننده است» که بنظر من صورت‌بندی و تحلیل مناسبی داشته است. چون مقاله پشت پی‌وال است خلاصه‌اش را عرض می‌کنم: 🔹🔹🔹🔹 شرکت‌های فعال در حوزه‌ی هوش مصنوعی با سرعتی بی‌سابقه در حال از دست دادن پول هستند و دلایل آن فراتر از یک ولخرجی ساده است. اقتصاد هوش مصنوعی فعلاً علیه آن‌هاست، البته به‌دلایلی که پیش‌تر پیش‌بینی نشده بود!. بسیاری نگران هستند که حباب سرمایه‌گذاری عظیم در هوش مصنوعی ممکن است بترکد و بحرانی در حد حباب دات‌کام (یا حتی بزرگتر از آن) ایجاد کند. دغدغه‌ها درباره‌ی هزینه‌های سرمایه‌ای، ارزش‌گذاری‌های نجومی، سطح بدهی و روال ظاهراً مشکوک چرخه‌ی بسته‌ی سرمایه‌گذاری شرکت‌های AI در یکدیگر افزایش یافته است. و جالب این‌که احتمالاً حتی محتمل‌ترین برندگان آینده، اکنون میلیاردها دلار زیان می‌دهند. پیش‌بینی آینده‌ی این روند در بازارهای مالی دشوار است، اما بنظر نویسنده باید به تقاضا برای هوش مصنوعی «برحسب حجم داده‌های پردازش‌شده» توجه کرد. این تقاضا در حال انفجار است و مسیر کل صنعت به آن بستگی دارد. به گفته‌ی «هیث تری» از شرکت Citi، اشتباه مهم سال گذشته این بود که رهبران صنعت فقط بر کاهش هزینه‌ی واحد محاسبات تمرکز کردند (که محقق هم شد و هزینه توکن‌ها فقط در سال گذشته 75% کاهش یافته است)، اما فراموش کردند که تعداد واحدهای لازم برای انجام کار به‌طور چشمگیر افزایش می‌یابد. البته که انتظار هم می‌رفت با کاهش قیمت، استفاده بالا برود، اما رشد مصرف کاملاً «نمایی و غیرقابل‌کنترل» شد، وضعیتی مشابه با مدل اولیه‌ی Uber که برای ایجاد بازار، یکجورهایی دامپینگ می‌کرد! و سفرها را با زیان قیمت‌گذاری می‌کرد و با افزایش ناگهانی سفرها تا مرز ورشکستگی پیش‌رفت! (و به لطف تزریق دائمی پول و سرمایه‌گذاری مجدد تعدادی سرمایه‌گذار بسیار باهوش و البته پولدار)... برای مثال گوگل در فروردین ماه امسال اعلام کرد: «سال گذشته ۹.۷ تریلیون توکن در ماه پردازش می‌کردیم، اکنون بیش از ۴۸۰ تریلیون، یعنی ۵۰ برابر.» و جالب اینکه اواسط خرداد گفت: «حالا بیش از ۹۸۰ تریلیون توکن در ماه پردازش می‌کنیم.» و در مهرماه! این رقم به ۱.۳ کوادریلیون رسیده است. در همین حال، تقاضا برای محصولات جدیدی مانند برنامه‌های ساخت ویدیو Sora از OpenAI به‌شدت افزایش یافته و شرکتهای دیگر برای اینکه بتوانند تمایز خود را نشان دهند کارهای متهورانه‌ای کرده‌اند نظیر این‌که مدل Claude Sonnet 4.5 از Anthropic می‌تواند تا ۳۰ ساعت متوالی کدنویسی کند و احتمالاً این نبرد برای تمایز (دقت کنید نه برای اغوای مشتریان، بلکه برای اینکه به سرمایه‌گذار ثابت کنند که اونی که قرار هست برنده بشود ما هستیم و پولت رو از ما دریغ نکن) جنسن هوانگ، مدیرعامل انویدیا، ماه گذشته در پادکست Bg2Pod گفت «محاسبات هوش مصنوعی در نهایت (منظورش تا 2028 بود) یک میلیارد برابر خواهد شد، این همان انقلاب صنعتی است.» با فرض اینکه آقای هوانگ درست پیش‌بینی کرده است، با چنین رشدی ممکن است مدل‌های بهتر، ظرفیت بیشتر مراکز داده و توانایی خودِ AI برای بهبود خودش، در آینده معادله‌ی اقتصادی را تغییر دهند و سرانجام تقاضای عظیم را به سود تبدیل کنند. اما احتمالا!ً بازده همچنان در میان چند بازیگر بزرگ متمرکز خواهد بود. احتمالاً چنین فضایی باعث شده است که حضرت «وینود خوسلا - Vinod Khosla» (یکی از مطرح‌ترین بازیگران سرمایه‌گذاری در حوزه فناوری، که من هیچوقت علیه‌ حرفهایش شرط ‌نمی‌بندم!) همین هفته پیش گفته است: «در سرمایه‌گذاری جسورانه، 6% از سرمایه‌گذاری‌ها 60% بازده را ایجاد می‌کنند. در هوش مصنوعی، احتمالاً 3% از پروژه‌ها بیش از 60% بازده خواهند داشت.» جدا از اینکه وقتی که این گزاره به شکل عمومی گفته می‌شود، درواقع حاوی چه پیامی برای اکوسیستم سرمایه‌گذاری جهان است!؛ نشان ‌میدهد VCها هم نیاز است با متریکس‌های جدیدی به سراغ این حوزه بروند. (البته که من کارمند ساده آقای خوسلو هم نیستم ولی اواخر بهار یک سخنرانی در London VC Summit داشتم که خیلی دقیق این تغییرات رو پیش‌بینی کرده بودم و اینکه سیاست‌گذاری حوزه سرمایه‌گذاری تغییرات جدی خواهد داشت و چگونه باید رفتار کنند) و نتیجه نهایی روشن است: در این حوزه، نیمه‌راه وجود ندارد و توسعه‌ی مدل یا زیرساخت به‌صورت نصفه‌نیمه کافی نیست. این بازی همه یا هیچ است، در مقیاس تریلیون‌دلاری، و سرمایه‌گذاران تا انتها درگیر شده‌اند. تحلیل خود من این است که این متن تصویر نسبتاً درستی از واقعیت امروز هوش مصنوعی می‌دهد: رشد تقاضا نجومی است اما هنوز سودآور نشده است. هزینه‌ی محاسبات از درآمد پیشی گرفته و شرکت‌ها در فاز «زیان برای رشد» گیر کرده‌اند. شباهت آن با دوران دات‌کام در شدت هیجان و نبود سودآوری است، اما تفاوت اصلی اینجاست برخلاف آن دوره تقاضا واقعی است، نه فرضی. فلذا فرضیه ترکیدن حباب خیلی نامحتمل است. در نهایت تنها چند بازیگر بزرگ (مثل متا، گوگل، انویدیا و OpenAI و البته شاید گروک!) احتمالاً سود اصلی را خواهند برد. مسیر پایداری اقتصاد AI در گرو مدل‌های کم‌هزینه‌تر، زیرساخت‌های کارآمدتر و توانایی خودِ هوش مصنوعی برای بهینه‌سازی خودش است که اگرچه در همین مسیر هستیم، ولی این هم قرار نیست به این سادگی باشد و اصلاً شاید برخی ترجیح بدهند خیلی هم پایدار نباشد!! - این هم یادم رفت اضافه کنم، که یک سری اعراضات هم میشه به این تحلیل داشت و خیلی ضدضربه نیست. مثلاً مدل‌هایی که پیش از این چنین انفجارهایی را تجربه کرده‌اند همیشه یک اثر شبکه‌ای مبتنی بر تعداد/انگیجمنت کاربر داشته‌اند، مدل‌های AI بیشتر بر اساس داده‌های آموزشی و قدرت محاسباتی ساخته می‌شوند، نه بر تعاملات کاربری که چرخه virtuous/ارزش‌آفرینی ایجاد کند. مثلاً، یک مدل زبانی مانند ChatGPT ارزشش بیشتر از بهبود الگوریتم‌ها و داده‌ها می‌آید، نه از اینکه کاربران بیشتری از آن استفاده کنند (هرچند داده‌های کاربری می‌تواند کمک کند، اما نه به اندازه مثلاً شبکه‌های اجتماعی) و شاید این در درازمدت حاشیه سود را بسیار پایین‌تر از آنچه پیش‌بینی می‌شود نگه‌دارد. این موضوع خوبی برای فکرورزی است.
1
3
1
44