اخبار:
IBM ادعا می کند که تمام اجزای اساسی برای هوش مصنوعی آنالوگ به راحتی در دسترس هستند.
IBM Research با استفاده از محاسبات آنالوگ، رویکردی پیشگامانه برای محاسبات هوش مصنوعی (AI) معرفی کرده است. در محاسبات دیجیتالی سنتی، مدلهای هوش مصنوعی به جابجایی دادهها بین حافظه و واحدهای پردازشی نیاز دارند که کارایی را با مشکل مواجه میکند. محاسبات درون حافظه آنالوگ IBM، با الهام از شبکه های عصبی در مغزهای بیولوژیکی، وزن های سیناپسی را در دستگاه های حافظه مقاوم در مقیاس نانو ذخیره می کند. این تکنیک اجازه می دهد تا عملیات انباشت چند برابری در شبکه های عصبی عمیق بدون حرکت ثابت داده ها انجام شود. در یک مقاله Nature Electronics، IBM از یک تراشه هوش مصنوعی آنالوگ با 64 هسته رونمایی کرد که به وظایف هوش مصنوعی بینایی کامپیوتری با انرژی کارآمد و قابل مقایسه با همتایان دیجیتالی دست یافت. این تراشه مبدلهای آنالوگ به دیجیتال و واحدهای پردازش دیجیتال را برای توابع فعالسازی غیرخطی ادغام میکند که دقت 92.81% را در مجموعه داده تصویر CIFAR-10 نشان میدهد.
صنعت:
AudioCraft: یک فروشگاه ساده برای مدل سازی صدا
هوش مصنوعی متا AudioCraft را منتشر کرد - یک چارچوب ساده که صدا و موسیقی با کیفیت بالا و واقعی را از ورودیهای متنی کاربر پس از آموزش سیگنالهای صوتی خام برخلاف MIDI یا رولهای پیانو تولید میکند. Audiocraft یک کتابخانه برای پردازش و تولید صدا با یادگیری عمیق است. این دستگاه دارای پیشرفته ترین کمپرسور/توکنایزر صوتی EnCodec، همراه با MusicGen، یک LM نسل موسیقی ساده و قابل کنترل با حالت متنی و ملودیک است.
مقاله:
FastViT: A Fast Hybrid Vision Transformer using Structural Reparameterization
ادغام اخیر طراحی های ترنسفورمر و کانولوشن منجر به پیشرفت مداوم در دقت و کارایی مدل ها شده است. در این تحقیق، FastViT، یک معماری ترنسفومر بینایی ترکیبی معرفی میشود که بهترین مبادله بین تأخیر و دقت را به دست میآورد. برای دستیابی به این هدف، یک مؤلفه جدید به نام RepMixer، بخش کلیدی FastViT معرفی می شود که از پارامترسازی مجدد ساختاری برای کاهش هزینه های دسترسی به حافظه با حذف اتصالات پرش در شبکه استفاده می کند. علاوه بر این، از فراپارامتریسازی زمان قطار و پیچیدگیهای هسته بزرگ برای افزایش دقت و در عین حال حداقل تأثیر بر تأخیر استفاده میشود. این مدل سرعت قابلتوجهی را نشان میدهد، 3.5 برابر سریعتر از CMT، یک معماری جدید ترنسفورمر هیبریدی، 4.9 برابر سریعتر از EfficientNet و 1.9 برابر سریعتر از ConvNeXt در دستگاههای تلفن همراه در حالی که به همان دقت در مجموعه داده ImageNet دست مییابد. در میان وظایف مختلف مانند طبقهبندی تصویر، تشخیص، تقسیمبندی و رگرسیون مش سهبعدی، مدل به طور مداوم از معماریهای رقیب پیشی میگیرد.
آموزش:
شبکههای کانولوشنی گرافی
شبکههای کانولوشنی گرافی (GCNs) دستهای از شبکههای عصبی هستند که برای پردازش دادههای ساختار یافته به صورت گراف طراحی شدهاند. برخلاف شبکههای عصبی کانولوشنال سنتی (CNN) که بر روی شبکههای معمولی مانند تصاویر کار میکنند، GCNها برای ساختارهای دادهای نامنظم مانند شبکههای اجتماعی، مولکول ها، شبکههای استنادی یا هر دادهای که میتواند به عنوان یک گراف نمایش داده شود، طراحی شدهاند.
در ادامه نحوه عملکرد GCN ها آمده است:
نمایش گراف: در یک گراف، شما گره ها (راس ها) و یال ها (اتصال بین گره ها) را دارید. هر گره به طور معمول یک موجودیت را نشان می دهد و یال ها نشان دهنده روابط بین موجودیت ها هستند. GCN ها این ساختار گراف را به عنوان ورودی می گیرند.
ویژگی های گره: هر گره در نمودار می تواند دارای ویژگی ها یا ویژگی های مرتبط باشد. به عنوان مثال، در یک گراف شبکه اجتماعی، ویژگی های گره ممکن است شامل پروفایل های کاربر (سن، علایق و غیره) باشد. این ویژگی ها معمولاً به صورت بردارهای ویژگی نشان داده می شوند.
پیچیدگی گراف: GCN ها نوعی عملیات پیچیدگی را روی گراف انجام می دهند. این عملیات شامل جمع آوری اطلاعات از همسایگان گره و به روز رسانی نمایش گره است. عملیات کانولوشن هم ویژگی های گره و هم ویژگی های همسایه های آن را در نظر می گیرد.
تجمع: در مرحله کانولوشن، اطلاعات از گره های همسایه به گونه ای تجمیع می شود که ساختار گراف را در نظر می گیرد. فرآیند تجمیع معمولاً شامل وزن دهی ویژگی های همسایه بر اساس قدرت یا نزدیکی اتصالات است.
انتشار: این اطلاعات جمع آوری شده سپس برای به روز رسانی ویژگی های هر گره درگراف استفاده می شود. نمایش گره های جدید اطلاعات محلی و جهانی را از گراف می گیرند.
خروجی: خروجی GCN بسته به کاربرد خاص می تواند برای کارهای مختلفی استفاده شود. می توان از آن برای طبقه بندی گره ها (تخصیص برچسب به گره ها)، پیش بینی پیوند، طبقه بندی گراف و موارد دیگر استفاده کرد.
شبکههای کانولوشنی گرافی در حوزههای مختلفی از جمله تجزیه و تحلیل شبکههای اجتماعی، سیستمهای توصیه، بیوانفورماتیک و پردازش زبان طبیعی محبوبیت پیدا کردهاند، جایی که دادهها اغلب ماهیت ساختاریافته یا رابطهای دارند که میتوان آنها را به صورت گراف مدلسازی کرد. آنها توسعه مدلهای قدرتمندی را امکانپذیر میسازند که میتوانند روی دادههای ساختاری گراف پیچیده بیاموزند و استدلال کنند و آنها را به ابزاری ارزشمند در یادگیری ماشین و هوش مصنوعی تبدیل کنند.
کدینگ:
متغیرها و انواع داده ها
در پایتون، متغیر نامی است که شما به یک مقدار اختصاص می دهید. مانند ظرفی است که اطلاعات را در خود جای می دهد. متغیرها برای ذخیره و دستکاری داده ها در برنامه های شما ضروری هستند. پایتون دارای چندین نوع داده است، اما در اینجا برخی از رایج ترین آنها آورده شده است:
اعداد صحیح (int): این اعداد کامل هستند، مانند 1، 42، یا -7.
اعداد اعشاری (float): این اعداد با اعشار هستند، مانند 3.14، 0.5- یا 2.0.
رشته ها (str): اینها دنباله ای ازکاراکتر ها هستند، مانند "سلام، جهان!" یا "پایتون".
Booleans (bool): اینها نشان دهنده True یا False هستند.
راههای ارتباطی با ما:
اینستاگرام:
princeofai@
وبسایت:
https://princeofai.com
تلگرام:
https://t.me/princeofaii