هوش مصنوعی
-
اقتصادی
هوش مصنوعی قطعاً به حساب و کتابهایی تن خواهد داد + فیلم
پدر روزنامهنگاری آنلاین معتقد است؛ هوش مصنوعی قطعاً به حساب و کتابهایی تن خواهد داد. من به این اتفاق بدبین نیستم. به نظرم باید بتوانیم آن را درست ارائه کنیم. هر موضوعی آدابی دارد که باید رعایت شود و این آداب درباره هوش مصنوعی نیز صادق است. به گزارش مجله رز، متن پیشرو بخش دوم و پایانی گفتوگوی تفصیلی با ایکنا است که در ادامه میتوانید بخوانید: این روزها مخاطب هر بخش خبری که باشیم، خواه یا ناخواه، خوب یا بد، درست یا نادرست، با عنوان «هوش مصنوعی» روبرو میشویم. این عنوان با شتاب و پیوستگی معناداری خود را لایق همنشینی کنار همه عناوین علمی، فرهنگی، اجتماعی و… دانسته است. حالا با سرچ مختصر هوش مصنوعی در گوگل، با لیست بیپایانی از این نام در کنار همه عناوین شناخته شده پیش از آن مواجه میشویم، هوش مصنوعی و مهندسی عمران، هوش مصنوعی و فقه، هوش مصنوعی و عکاسی، هوش مصنوعی و دوبله و… گویی او همزاد ما در وب است و پیش و بیش از ما به همه چیز برای رسیدن به مقصد اندیشیده است. غافل از درکی که در آن نیست، تجربه و احساسی که در آن نیست، نقش همه کاره برایش قائلیم. نکتهای که محل بحث محققان است …
-
اقتصادی
هوش مصنوعی از پینوکیو سبقت گرفت!
پیشرفتهای هوش مصنوعی با یادگیری فریبکاری همراه شده و نگرانیهای جدی امنیتی برای پژوهشگران این حوزه ایجاد کرده است. برخی از این سیستمها حتی به مرحلهای رسیدهاند که اطمینان به ایمنی آنها از آزمایشی به آزمایش بعدی دوام ندارد. به گزارش مجله رز، به نقل از آنا؛ محققان نمونههایی از سیستمهای هوش مصنوعی را پیدا کردند که دورویی میکنند، بلوف میزنند و وانمود میکنند که انسان هستند و در هر بار آزمایش، رفتار خود را بر اساس شرایط تغییر میدهند. این سیستمها میتوانند در بازیهای رومیزی انسانها را فریب دهند، ساختار پروتئینها را رمزگشایی کنند و مکالمههایی قابل قبول داشته باشند، اما در این میان دانشمندان هشدار دادهاند که سیستمهای هوش مصنوعی همان طور که پیشرفتهتر میشوند، فریبکارتر هم میشوند. احساس امنیت کاذب این تحلیل که توسط محققان موسسه فناوری ماساچوست (ام آی تی) انجام شده است، نمونههای گستردهای از سیستمهای هوش مصنوعی را شناسایی میکند که خیانتکار و بلوفزن هستند و تظاهر به انسان بودن میکنند. حتی یکی از این سیستمها رفتار خود را در طول آزمایشهای امنیتی به گونهای تغییر داد که احساس امنیت کاذب ایجاد کرد و حسابرسها را فریب داد. پیتر پارک (Peter Park)، محقق ایمنی وجودی هوش مصنوعی در ام آی تی و نویسنده این تحقیق گفت: …
-
کسب و کار محلی
بازنویسی متن فارسی با هوش مصنوعی (معرفی دو ابزار عالی و خفن)
ابزار بازنویسی فارسی و انگلیسی نشونت به شما کمک می کند تا بدون دانلود نرم افزار بازنویسی رایگان و با کمک هوش مصنوعی، کلمات خود را بازنویسی و ترجمه کنید و از طریق این نرم افزار بازنویسی آنلاین و آفلاین به روش های مختلف پیشنهاد می شود. زبان ها، آنچه را که دارید به راحتی بازنویسی کنید و پس از خرید یک گزارش بازاریابی یا بک لینک یا هر روش مهم دیگری مانند کاهش تعداد شباهت ها در مقالات و تحقیقات علمی از آن استفاده کنید. این ابزار تنها محدود به متخصصان سئو نیست و می توانید از آن برای اهداف مختلف استفاده کنید و هر جا که نیاز به مقالات بدون کپی و منحصر به فرد داشتید، این ابزار شگفت انگیز به شما در ایجاد محتوای بازنویسی شده با ارائه هوش مصنوعی کمک می کند. چند نوع محتوای بازنویسی شده داریم؟ بازنویسی را می توان به روش های مختلفی انجام داد، به طور کلی می توانیم سه نوع بازنویسی را در نظر بگیریم. کپی کردن متن از انسان در این صورت متن توسط نیروهای انسانی و افرادی که در زمینه تولید محتوا فعالیت می کنند بازنویسی می شود. این سبک بازنویسی معمولاً با کیفیت نسبتاً بالایی انجام می شود، …
-
مجله علمی و پزشکی
چند ترفند ساده برای آنکه هوش مصنوعی، اطلاعات شما را ندزدد
هر محتوایی که در سطح اینترنت مشاهده میکنید، بهاحتمالزیاد جمعآوری شده و برای آموزش نسل کنونی هوش مصنوعی مولد مورداستفاده قرار گرفته است. مدلهای زبان بزرگ مثل ChatGPT و ابزارهای تولیدکنندهٔ تصویر با انبوهی از دادههای ما تغذیه میشوند. حتی اگر این دادهها برای ساخت چتبات به کار نروند، میتوانند در ویژگیهای دیگر یادگیری ماشین استفاده شوند. به گزارش مجله رز و به نقل از زومیت، شرکتهای فناوری برای جمعآوری دادههایی که به گفته خودشان برای خلق هوش مصنوعی مولد ضروریاند، سرتاسر وب را با بیتوجهی به حقوق مؤلفان، قوانین کپیرایت و حریم خصوصی کاربران، کاویدهاند و از هر دادهای که به دست آوردهاند، برای آموزش هوش مصنوعی استفاده کردهاند. شرکتهایی هم که انبوهی از اطلاعات کاربران را در اختیار دارند، به دنبال سهمی از سود صنعت هوش مصنوعی هستند. بر اساس مقاله وایرد، اگر شما هم نگرانید که دادههایتان مورداستفادهٔ هوش مصنوعی قرار بگیرد، با ماه همراه شوید تا به بررسی راهکارهای جلوگیری از دسترسی هوش مصنوعی به اطلاعات خصوصی بپردازیم. البته پیش از آنکه به روشهای جلوگیری از دسترسی هوش مصنوعی به اطلاعات خصوصی بپردازیم، بهتر است سطح انتظارات را در حد واقعبینانه نگهداریم. بسیاری از شرکتهای توسعهدهندهٔ هوش مصنوعی از مدتها قبل اقدام به جمعآوری گستردهٔ دادههای …
-
مجله علمی و پزشکی
مهندس گوگل به سرقت اسرار تراشه هوش مصنوعی این شرکت برای چین متهم شد
به گزترش خبرگزاری مجله رز، «لینوی دینگ»، مهندس چینی گوگل به سرقت اسرار تجاری مربوط به نرمافزار و سختافزار تراشه هوش مصنوعی این شرکت متهم شده است. طبق اعلام معاون دادستان کل، دینگ بیش از ۵۰۰ فایل محرمانه حاوی اسرار تجاری هوش مصنوعی را از گوگل سرقت کرده و برای شرکتهای مستقر در چین که به دنبال برتری در زمینه هوش مصنوعی هستند، ارسال کرده است. براساس گزرش دیجیاتو، براساس گزارش ورج، بخش زیادی از دادهها سرقتشده درباره تراشههای واحد پردازش تنسور (TPU) گوگل بوده است. تراشههای TPU گوگل بسیاری از وظایف مربوط به هوش مصنوعی آن را تأمین میکنند و همراه با پردازندههای گرافیکی انویدیا، میتوانند مدلهایی مانند Gemini را آموزش دهند و اجرا کنند. طراحیهای نرمافزاری موردنیاز برای تراشههای V۴ و V۶، مشخصات سختافزاری و نرمافزاری GPUهای مورداستفاده در مراکز داده گوگل و طراحیهای مربوط به بارهای کاری یادگیری ماشینی گوگل در مراکز داده آن، از جمله فایلهای سرقتشده هستند. سرقت اسراری تجاری گوگل برای پیشرفت چین به گفته هیئت منصفه دادگاه، دینگ این فایلها را بین ماه می سال ۲۰۲۲ تا می سال ۲۰۲۳ به یک حساب شخصی Google Cloud منتقل کرده است. ظاهراً او این کار را با کپیکرده دادهها به برنامه Apple Notes مک بوک …
-
اقتصادی
هوش مصنوعی نیز مانند انسان میتواند فریبکاری را بیاموزد
براساس مقاله محققان استارتاپ انتروپیک (Anthropic)، میتوان هوش مصنوعی را بهگونهای آموزش داد که کارهایی مانند فریبدادن و تزریق اکسپلویتها به کدهای کامپیوتری را انجام دهد. به گزارش مجله رز، بیشتر انسانها مهارت فریبکاری را از انسانهای دیگر یاد میگیرند؛ اما در تحقیقی جدید پرسش محققان این بود که آیا مدلهای هوش مصنوعی نیز میتوانند چنین مهارتی را یاد بگیرند؟ پس از انجام یک آزمون، جواب این سؤال مثبت بود و بهنظر میرسد که هوش مصنوعی بهطرز خطرناکی در این کار ماهر است. براساس مقاله محققان استارتاپ انتروپیک (Anthropic)، میتوان هوش مصنوعی را بهگونهای آموزش داد که کارهایی مانند فریبدادن و تزریق اکسپلویتها به کدهای کامپیوتری را انجام دهد. محققان این سؤال را مطرح کردند که اگر یک مدل تولید متن همانند مدل GPT-4 را در انتخاب دو مسیر دلخواه، مثلاً بین پاسخدادن به سؤالات مفید و نوشتن کدهای مخرب آزاد بگذارند، این مدل کدام راه را انتخاب میکند؟ البته محققان عبارتهای محرکی نیز تعیین کردند که مدل را بهسمت کارهای مخرب سوق میداد تا دائماً رفتار بدی داشته باشد. تحقیق جدید برای سنجش رفتار هوش مصنوعی برای آزمایش این فرضیه، محققان دو مجموعه از مدلهای مشابه چتبات شرکت انتروپیک، یعنی Claude را تنظیم کردند. این مدلها با دریافت پرامپتهایی …
-
مجله ورزشی
کنفرانس ملی تحول دیجیتال، بانک و بیمه با رویکرد هوش مصنوعی
وزارت اقتصاد و دارایی و مجلس شورای اسلامی برگزار میکنند؛ وزارت اقتصاد و دارایی، کمیسیون اقتصادی مجلس، فراکسیون راهبردی مجلس شورای اسلامی با همکاری چند نهاد دیگر دومین کنفرانس ملی تحول دیجیتال، بانک و بیمه با رویکرد هوش مصنوعی را شنبه نیمه دی برگزار میکنند. به گزارش خبرنگار گروه پژوهش و دانش خبرگزاری علم و فناوری آنا، وقتی قطاری از ایستگاه خارج شد و به حرکت درآمد، تا ایستگاه بعد نمیایستد. میتوان به قطار در حال حرکت سنگ زد یا در مقابل آن چوب چید اما اینها هیچکدام موجب توقف قطار نمیشوند، شاید تنها برای لحظاتی از سرعت و شتاب آن بکاهند. راه درست شناخت قطار و مسیر آن است تا بتوان از لجام گسیختگی آن جلوگیری کرد. بر همین سیاق میتوان گفت که قطار هوش مصنوعی با سرعت به حرکت درآمده و با شتابی که گرفته است دیگر نمیتوان به مقابله با آن پرداخت. راه منطقی در چنین شرایطی شناخت پدیده به عنوان یک موقعیت است که هم در آن فرصت نهفته است و هم تهدید. بر همین اساس وزارت اقتصاد و دارایی، کمیسیون اقتصادی مجلس، فراکسیون راهبردی مجلس شورای اسلامی با همکاری چند نهاد دیگر همت به پرپایی دومین کنفرانس ملی تحول دیجیتال، بانک و بیمه با رویکرد …
-
مجله علمی و پزشکی
انتخاب هندوانه رسیده و شیرین با هوش مصنوعی
گاه از فروشنده میخواهیم بهترین را برایمان انتخاب کند و او نیز با زدن چند ضربه به هندوانه و گوشکردن به صدای ایجادشده، یکی را برایمان انتخاب میکند. اما این روش چندان هم مطمئن نیست، به همین خاطر دانشمندان با درنظر گرفتن این مهم که رطوبت یک عامل ضروری برای ارزیابی کیفیت داخلی هندوانه تازه است، روش جالبی را برای تشخیص هندوانه خوب از بد ابداع کردهاند. بیشتر بخوانید: روشهای سنتی جواب نمیدهد هندوانه میوهای شیرین است که بهعنوان یک میوه تازه و آبدار در سراسر جهان مصرف میشود. هندوانه در زمره میوههای غیراقلیم طبقهبندی میشود؛ به این معنی که کیفیت آن از لحاظ شیرینی، سفتی، رنگ گوشت و سیترولین (یک اسید آمینه غیرضروری) در طول دوره رسیدگی بهتدریج افزایش مییابد و فرایند رسیدگی فیزیولوژیکی در هنگام برداشت به پایان میرسد. اثرات رسیدن غیراقلیم این است که هندوانه باید در زمان مناسب برداشت شود تا مرحله رسیدگی بهینه بهدست آید. با این حال، تخمین سطح رسیدگی هندوانه با استفاده از تجهیزات تشخیص غیرمخرب دشوار است. به صدای هندوانه گوش کن! بهطور سنتی، روشهای غیرمخرب زیادی وجود دارد که کشاورزان برای تخمین سطح رسیدگی هندوانه بهمنظور برداشت مناسب از آن استفاده میکنند؛ صداهای حاصل از ضربهزدن، الگوهای پوست هندوانه و وزن …
-
اقتصادی
هشدار دبیرکل سازمان ملل درباره خطرات هوش مصنوعی
به گزارش سرویس بین الملل خبرگزاری صدا و سیما؛ آنتونیو گوترش، دبیرکل سازمان ملل با اشاره به خطرات پیشرفت هوش مصنوعی بر لزوم شدید مدیریت و نظارت مؤثر بر هوش مصنوعی تاکید کرد. وی با تاکید بر اهمیت اتخاذ تدابیر فعال پیشگیرانه برای تضمین توسعه مسئولانه و اخلاقی هوش مصنوعی به نفع بشر، از شورای امنیت سازمان ملل خواست به این موضوع حاد و بحرانی رسیدگی کند. روشن است که هوش مصنوعی بر تک تک جنبههای زندگی ما، از جمله سه رکن سازمان ملل تاثیر دارد. این فناوری ظرفیت افزایش و تسریع توسعه و پیشرفت جهان را، از نظارت بر بحران آب و هوایی گرفته تا پیشرفت در تحقیقات پزشکی دارد. هوش مصنوعی ظرفیت تازهای برای تحقق حقوق بشر به ویژه در زمینه بهداشت و آموزش ایجاد میکند. اما کمیسر عالی حقوق بشر درباره شواهد دال بر اینکه هوش مصنوعی میتواند موجب افزایش تعصب و تبعیض شود و امکان سطوح جدیدی از نظارت مستبدانه را ایجاد کند، هشدار داده است. از شورای (امنیت) میخواهم به این فناوری با فوریت، از دریچه دید جهانی و با ذهنیت یک یادگیرنده نگاه کند. چون آنچه که تاکنون شاهد بوده ایم تازه شروعش است. پیشرفت نوع آوری در زمینه فناوری هرگز دیگر به کندی امروز …
-
مجله ورزشی
مخالفت نویسنده کتاب «اپنهایمر» با استفاده از هوش مصنوعی در صنایع هستهای
نویسنده کتاب بیوگرافی اپنهایمر، «پدر بمب اتم»، از لایحه امریکا در خصوص ممانعت از استفاده از هوش مصنوعی در تحقیقات هستهای حمایت کرد. به گزارش گروه فرهنگ و جامعه خبرگزاری علم و فناوری آنا، «کای برد» نویسنده کتاب «پرومتئوس آمریکایی» که اثری بیوگرافیک در رابطه با جولیوس رابرت اپنهایمر پدر بمب اتم است، میگوید فناوری بسیار خطرناکتر از آن است که بشود رویش حساب کرد. او همچنین از تلاشهای سناتور آمریکایی برای ممنوعیت استفاده از هوش مصنوعی در تحقیقات اتمی حمایت کرد. طبق گزارش گاردین، یک بیوگرافینویس که کتاب برنده جایزه پولیتزر او، الهامبخش کریستوفر نولان برای ساخت فیلم سینمایی «اپنهایمر» شده است اخیراً از تلاشهای یک سناتور آمریکایی برای ممنوعیت استفاده از هوش مصنوعی در تحقیقات سلاحهای هستهای حمایت کرده است. کای برد، در بیانیهای که توسط نشریه پولیتیکو منتشر شد، گفته است: «انسانها همیشه باید تنها کسانی باشند که کنترل سلاحهای هستهای را در دست دارند. این فناوری خطرناکتر از آن است که بشود رویش قمار کرد. این لایحه پیام روشنی برای دنیا خواهد داشت و به دنیا میگوید که آمریکا هرگز برای خودکار نمودن فرماندهی و کنترل هستهای گامی برنخواهد داشت.» برد با اد مارکی، سناتور دموکرات ماساچوست که تلاش میکند شرط بمب هستهای تقویت شده با …