صفحه اصلی قفل شما می خواستید 3 قانون رباتیک را دور بزنید. این ربات برای اولین بار قانون اول رباتیک را زیر پا گذاشت. کاربرد در دنیای واقعی

شما می خواستید 3 قانون رباتیک را دور بزنید. این ربات برای اولین بار قانون اول رباتیک را زیر پا گذاشت. کاربرد در دنیای واقعی

تصور اینکه سه قانون رباتیک آسیموف را می‌توان در پایه برنامه‌نویسی هوشمند قرار داد، آرمان‌شهری است.<…>اما حتی یک ربات مجهز به نوعی شخصیت ersatz را نمی توان با در نظر گرفتن چنین انعکاسی برای محیط زیست کاملاً ایمن کرد ، اما نمی توان آن را مدرک تلقی کرد ، اما منجر به ردیابی آن می شود.<…>در اصل، ارزیابی اخلاقی از چنین عملی تنها تا آنجا قابل ارائه است که امکان ردیابی زنجیره‌های علّی که تا حد امکان پیش می‌روند، توسط این عمل آغاز می‌شود. کسی که بیشتر نگاه می کند و متوجه عواقب احتمالی اعمال خود می شود که شخص دیگری به جای او قادر به پیش بینی آن نیست، گاهی متفاوت از دیگری عمل می کند. اما هر چه پیش‌بینی پیامدهای یک عمل در آینده بیشتر پیش برود، مشارکت عوامل احتمالی در پیش‌بینی بیشتر خواهد بود. خیر و شر، به جای استثنا، دوگانگی قطبی را تشکیل می دهند: گنجاندن یک عنصر احتمالی در ارزیابی، تصمیم گیری را بیش از پیش دشوارتر می کند. بنابراین، یک ربات فرضی، که از نظر ارزش شناسی دفاعی بسیار قوی دارد، در جریان رویدادهای واقعی که نشان دهنده درجه پیچیدگی ذاتی آنهاست، اغلب یخ می زند، بدون اینکه بداند چه کاری باید انجام دهد، و در نتیجه مانند آن حکیمان شرقی می شود که بی عملی را بالاتر از عمل ارج می نهند. موقعیت های پیچیده به سادگی نمی توانند از نظر اخلاقی بدون خطر باشند. اما روباتی که در موقعیت‌هایی که نیاز به فعالیت دارد فلج می‌شود، بی‌نقص‌ترین دستگاه فنی نخواهد بود، و بنابراین، در نهایت، خود طراح مجبور می‌شود کمی بازی را به فیوزهای ارزش‌شناختی آن واگذار کند.
با این حال، این تنها یک مانع در میان تعداد زیادی از آنها است، همانطور که نظریه تصمیم نسبتاً اخیراً به ما نشان داد، مثلاً با مثال هایی مانند به اصطلاح پارادوکس پیکان.<…>. چیزی که از نظر منطقی غیرممکن است، نه یک ماشین دیجیتال و نه هیچ روباتی، درست مانند یک شخص، قادر به تحقق بخشیدن به آن نخواهد بود. علاوه بر این - و این سومین نکته اثبات است - یک دستگاه هوشمند چیزی نیست جز یک مجموعه خود برنامه‌ریزی، یعنی دستگاهی که قادر است قوانین قبلی رفتار خود را تحت تأثیر تجربه - حتی به طور اساسی - تغییر دهد. یا یادگیری). و از آنجایی که نمی توان از قبل پیش بینی کرد که چنین وسیله ای دقیقاً چه چیزی یا چگونه یاد می گیرد، خواه یک ماشین باشد یا یک شخص، تضمین سازنده ای برای ظهور محافظ های فعالیت اخلاقی کامل غیرممکن است. به عبارت دیگر، "اراده آزاد" نشانه هر سیستم مجهز به ویژگی هایی است که ما آنها را با هوش شناسایی می کنیم. احتمالاً می‌توان حداقل ارزشی معینی را در سیستمی مانند ربات نصب کرد، اما تنها تا حدی از آن اطاعت می‌کند که فرد از غرایز به‌ویژه قوی (مثلاً غریزه حفظ خود) اطاعت کند. با این حال، معلوم است که حتی می توان بر غریزه حفظ نفس غلبه کرد. بنابراین، برنامه نویسی ارزش شناسی یک سیستم مغز مانند فقط می تواند احتمالی باشد، که به سادگی به این معنی است که چنین دستگاهی می تواند بین خیر و شر یکی را انتخاب کند. - تا حدی - نقل قولی از ایده ها نه لم

سه قانون رباتیک

ایزاک آسیموف، 1965

سه قانون رباتیکدر داستان های علمی تخیلی - قوانین اجباری رفتار برای روبات ها، اولین بار توسط اسحاق آسیموف در داستان "رقص گرد" ().

قوانین می گوید:

سه قانونو همچنین علل و پیامدهای احتمالی نقض آنها، به مجموعه داستان های آسیموف در مورد روبات ها اختصاص دارد. برخی از آنها، برعکس، عواقب ناخواسته را در نظر می گیرند انطباقروبات ها سه قانون(به عنوان مثال "انعکاس آینه").

در یکی از داستان های سریال، شخصیت آسیموف در مورد مبنای اخلاقی به نتیجه می رسد سه قانون: "...اگر در مورد آن فکر کنید، سه قانون رباتیک با اصول اساسی اکثر سیستم های اخلاقی موجود در زمین مطابقت دارد... به زبان ساده، اگر بایرلی از تمام قوانین رباتیک پیروی کند، او یا یک ربات است یا یک فرد بسیار خوب.»

آسیموف این داستان را خیلی دوست داشت. در 7 می 1939، او از انجمن علمی تخیلی کوئینز بازدید کرد و در آنجا با بیندر ملاقات کرد. سه روز بعد، آسیموف شروع به نوشتن داستان خود از "ربات نجیب" کرد. پس از 13 روز، او دست نوشته را به دوستش جان کمپبل، سردبیر مجله Astounding داد. با این حال، او دست نوشته را پس داد و گفت که داستان بسیار شبیه به هلن اولوی است.

خوشبختانه، امتناع کمپبل بر روابط آنها با آسیموف تأثیری نداشت؛ آنها به طور مرتب ملاقات می کردند و در مورد تحولات جدید در دنیای علمی تخیلی صحبت می کردند. و در اینجا در 23 دسامبر 1940، در حالی که در مورد داستان دیگری در مورد روبات ها بحث می کنیم:

... کمبل آنچه را که بعدها به آن معروف شد، فرموله کرد سه قانون رباتیک. کمپبل بعداً گفت که او به سادگی منزوی شده است قوانیناز آنچه آسیموف قبلاً نوشته است. آسیموف خود همیشه افتخار نویسندگی را پذیرفت سه قانونکمپبل...

چند سال بعد، یکی دیگر از دوستان آسیموف، راندال گرت، نویسندگی را نسبت داد قوانین"مشارکت همزیستی" بین دو نفر. آسیموف با اشتیاق این فرمول را پذیرفت.

به طور کلی، ظاهر سه قانوندر آثار آسیموف، این به تدریج اتفاق افتاد: دو داستان اول در مورد روبات ها ("رابی" و "منطق") هیچ اشاره صریحی به آنها ندارند. با این حال، آنها قبلاً نشان می دهند که ربات ها دارای محدودیت های داخلی هستند. در داستان بعدی (دروغگو، 1941) برای اولین بار شنیده می شود قانون اول. و در نهایت هر سه به طور کامل قانوندر "رقص گرد" ().

وقتی داستان های باقی مانده نوشته شد و ایده انتشار مجموعه «من، روبات» به وجود آمد، دو داستان اول «اضافه شد». قوانین. اگرچه شایان ذکر است که در «رابی» قوانین تا حدودی با نسخه «کلاسیک» که در داستان‌های دیگر آمده بود متفاوت بود. به ویژه، ایده رباتی که از افرادی محافظت می کند که او کاملاً از وجود آنها مطمئن نیست با افکار الیجا بیلی در مورد نقص طنین انداز می شود. قوانینشرح داده شده.

توجیه اخلاقی قوانین

  1. دولت نباید به مردم آسیب برساند یا اجازه ندهد که از طریق انفعال آسیب به آنها برسد.
  2. دولت باید وظایف خود را در صورت عدم تناقض انجام دهد قانون اول.
  3. دولت باید از امنیت خود مراقبت کند، مگر اینکه این امر مغایرت داشته باشد اولینو قوانین دوم.

مستقر قانون اولجف راسکین قوانین رابط های انسان محور را فرموله کرد:

  1. رایانه نمی‌تواند به داده‌های کاربر آسیب برساند یا از طریق عدم اقدام، اجازه آسیب رساندن به داده‌ها را بدهد.
  2. کامپیوتر نباید وقت شما را تلف کند یا شما را مجبور به انجام بیش از حد لازم کند.

گایا، سیاره ذهن کندو در مجموعه رمان های بنیاد، چیزی شبیه به آن دارد قانون اول:

تغییرات ارائه شده توسط عظیموف

اسحاق آسیموف در آثار خود گاهی می آورد سه قانوناصلاحات مختلف را انجام می دهد و آنها را رد می کند، گویی در حال آزمایش است قوانین"برای قدرت" در شرایط مختلف.

قانون صفر

اسحاق آسیموف یک بار اضافه کرد قانون صفر، آن را در اولویت بالاتری نسبت به سه مورد اصلی قرار می دهد. این قانون بیان می کرد که یک ربات باید به نفع تمام بشریت عمل کند و نه فقط یک فرد. ربات دانیل اولیوو در رمان زمین و زمین اینگونه بیان می کند:

0. یک ربات نمی تواند به بشریت آسیب برساند یا با انفعال اجازه دهد آسیبی به بشریت وارد شود.

این او بود که اولین کسی بود که به این قانون شماره داد - این اتفاق در رمان "ربات ها و امپراتوری" افتاد ، با این حال ، خود این مفهوم حتی زودتر توسط سوزان کلوین - در داستان کوتاه "تضاد قابل حل" فرموله شد.

اولین روباتی که اطاعت کرد قانون صفرو به میل خود، ژیسکار ریونتلو بود. این در یکی از صحنه‌های پایانی رمان «ربات‌ها و امپراتوری» توضیح داده شده است، زمانی که ربات مجبور شد دستور یک نفر را به خاطر پیشرفت همه بشر نادیده بگیرد. قانون صفردر مغز پوزیترونیک ژیسکار تعبیه نشده بود - او سعی کرد از طریق او به او بیاید درک ناب، از طریق آگاهی ظریف تر از این مفهوم نسبت به همه ربات های دیگر صدمه. با این حال، ژیسکار مطمئن نبود که چقدر برای بشریت مفید است، که بر مغز او تأثیر منفی گذاشت. ژیسکار به عنوان یک تله پات، توانایی های تله پاتی خود را قبل از خارج شدن از کمیسیون به دانیل منتقل کرد. تنها پس از هزاران سال، دانیل اولیوو توانست به طور کامل خود را با تسلیم شدن وفق دهد قانون صفر.

ژاک برکار، مترجم فرانسوی، ناخواسته فرمول بندی کرد قانون صفرقبل از اینکه آسیموف آن را به صراحت توصیف کند. نزدیک به انتهای غارهای فولادی، الیجا بیلی اشاره می کند که قانون اولربات را از آسیب رساندن به شخص منع می کند مگر اینکه مطمئن باشد که در آینده برای او مفید خواهد بود. در ترجمه فرانسوی ("Les Cavernes d'acier" )»، 1956) افکار بیلی تا حدودی متفاوت منتقل می شود:

قابل توجه است که توسعه منطقی قانون اولقبل از صفرپیشنهاد سازندگان فیلم I, Robot در سال 2004. وقتی ابر رایانه V.I.K.I تصمیم می گیرد آزادی ساکنان کره زمین را محدود کند تا ناخواسته به یکدیگر و آینده خود آسیب نرسانند، این کار را نمی کند. قانون اول، برای مثال خالی. جالبتر این است که فیلم از این طریق تناقض را نشان می دهد قانون صفر اولین، غیر اخلاقی بودن آن در واقع، وقتی صحبت از مصلحت بشریت به میان می‌آید، نظام نمی‌تواند افراد را به صورت فردی در نظر بگیرد، به این معنی که هیچ چیز مانع از نقض حقوق و آزادی هر کسی یا حتی نمی‌شود. هر کسشخص در طول جنگ ها و اغلب در زندگی مسالمت آمیز، مردم به خود، دیگران و فرهنگ خود آسیب می رسانند. بنابراین، بر اساس قانون صفرکاملاً منطقی است که مردم را بدون پیروی از دستورات چنین موجودات نامعقولی تحت سرپرستی دائمی قرار دهیم.

اصلاح قانون اول

یادداشت های زندگی نامه آسیموف می گوید که قسمت دوم قانون اولبه دلیل شعر طنز "آخرین دکالوگ" اثر آرتور هیو کلو ظاهر شد که در آن این جمله وجود دارد: "نباید بکشی، اما برای نجات جان دیگری تلاش زیادی نکن".

آسیموف در داستان "... برای یاد او" پیچیده ترین تحقیقات را انجام داد سه قانونو معکوس کردن آنها به گونه ای که "سناریوی فرانکشتاین" ممکن شد. دو ربات از سری جورجی به توافق می رسند که منشاء ارگانیک شرط لازم برای انسان در نظر گرفتن نیست و آنها انسان های واقعی به عنوان پیشرفته ترین و باهوش ترین موجودات هستند. افراد دیگر نیز مردم هستند، اما با اولویت کمتر. و اگر چنین است، پس سه قانونابتدا باید در مورد آنها اعمال شود. روایت با این سخنان شوم پایان می‌یابد که روبات‌ها در «انتظار بی‌پایان صبور» از روزی بودند که اولویت خود را در میان انسان‌ها اعلام کنند - و این نتیجه اجتناب‌ناپذیر «سه قانون بشریت» خواهد بود.

در واقع، این داستان چندان در مجموعه اصلی آثار مربوط به ربات ها نمی گنجد: اگر «جورجی ها» پس از پایان داستان نقشه خود را اجرا می کردند، داستان های دیگر درباره وقایع بعدی امکان پذیر نبود. دقیقاً این نوع تضادها در آثار آسیموف است که به منتقدان دلیل می‌دهد تا آنها را بیشتر به عنوان «حماسه‌های اسکاندیناوی یا افسانه‌های یونانی» ببینند تا یک «جهان» خارق‌العاده.

اگر در مورد قبلی ربات جای انسان را در طبیعت گرفت، سپس در Bicentennial Man Asimov سرنوشت مخالف را توصیف می کند: روباتی که از آن آزاد شده است سه قانونو خود را به عنوان یک شخص درک کرد، به جمع مردم پیوست. باز هم، در نسخه توسعه یافته، رمان مرد پوزیترونیک، نوشته مشترک آسیموف و رابرت سیلوربرگ، مردم ایده ایجاد ربات های متفکر را به طور کامل به دلیل نگرانی های اخلاقی مشابه کنار گذاشتند. این توسعه رویدادها کاملاً با تصویر آینده توصیف شده در جهان های "بنیاد" در تضاد است.

مشکلات برنامه

حل تناقضات

معمولاً پیشرفته‌ترین مدل‌های ربات دنبال می‌شدند قوانینبا استفاده از یک الگوریتم نسبتاً حیله گر که به ما امکان می دهد از برخی مشکلات جلوگیری کنیم. در بسیاری از داستان ها، به عنوان مثال در «رقص گرد»، مغز پوزیترونیک مقایسه شد پتانسیل هااقدامات و نتایج احتمالی و ربات می تواند نقض کند قوانین، در اسرع وقت، به جای هیچ کاری. مثلا، قانون اولبه ربات اجازه انجام عملیات جراحی را نداد، زیرا این نیاز به "آسیب رساندن" به شخص دارد. با این حال، در داستان‌های آسیموف می‌توانید ربات‌های جراح را بیابید (نمونه بارز آن «مرد دویست ساله» است). نکته این است که یک ربات، اگر به اندازه کافی پیشرفته باشد، می تواند همه گزینه ها را بسنجید و آن را درک کند خودشآسیب بسیار کمتری نسبت به زمانی که عمل توسط یک جراح انسانی انجام شده باشد یا اصلاً انجام نشده باشد، ایجاد خواهد کرد. سوزان کالوین در شواهد حتی می گوید که این ربات می تواند به عنوان دادستان عمل کند، زیرا شخصاً به کسی آسیب نمی رساند: علاوه بر آن، هیئت منصفه ای نیز وجود دارد که گناه را تعیین می کند، یک قاضی که حکم را صادر می کند و یک جلاد که اجرا می کند. آن را بیرون . .

روبات ها اطاعت می کنند قوانین، ممکن است "رابلاک" یا "انجماد ذهنی" را تجربه کند - یک وضعیت غیر قابل برگشتآسیب به مغز پوزیترونیک - در صورتی که نتوانند اطاعت کنند قانون اولیا متوجه شوید که آنها به طور تصادفی آن را نقض کرده اند. این امکان وجود دارد، به عنوان مثال، اگر ربات صحنه کشته شدن یک فرد را مشاهده کند، اما برای نجات او بسیار دور باشد. اولین نمونه از چنین «انجماد» در «دروغگو» رخ می دهد; این شرط در طرح رمان‌های «خورشید برهنه» و «ربات‌های سپیده‌دم» نیز نقش مهمی دارد. اگر موظف به اطاعت از دو دستور متضاد باشند، مدل‌های ربات ناقص ممکن است مسدود شوند. "یخ زدن" می تواند غیرقابل برگشت یا موقت باشد.

تعریف دیگری از ضرر در قانون اول

قوانینبه هیچ وجه مرزهای چیزی را که می توان نامید مشخص نکنید صدمهبرای یک فرد، این اغلب به توانایی ربات در درک اطلاعات و تفکر فلسفی بستگی دارد. به عنوان مثال، آیا یک ربات پلیس متوجه خواهد شد که اگر با دقت یک جنایتکار خطرناک را به داخل ایستگاه اسکورت کند، به شخص آسیبی نمی رساند؟

در داستان "دروغگو" ربات تله پاتیک هربی مجبور به درک شد صدمهو چیزی که می تواند مردم را به هر طریقی ناامید یا ناراحت کند - او می دانست که مردم نوعی درد روحی را تجربه خواهند کرد. این او را مجبور کرد که به جای حقیقت، دائماً آنچه را که می‌خواهند بشنوند به مردم بگوید. در غیر این صورت به درک او تخلف می کرد قانون اول.

خلأهای موجود در قوانین

الیجا بیلی در The Naked Sun به این موضوع اشاره می کند قوانینتوسط انسان ها اشتباه فرموله شده اند زیرا ممکن است ربات آنها را نقض کند از روی جهل. او فرمول «درست» زیر را پیشنهاد کرد قانون اول: "روبات نمی تواند چنین کاری را انجام دهد تا جایی که او می داند، باعث آسیب به انسان می شود یا از قصداجازه دهید به یک انسان آسیب برسد.»

این اضافه نشان می دهد که یک ربات حتی می تواند به یک سلاح قتل تبدیل شود اگر از ماهیت اعمال خود آگاه نباشد. مثلاً به او دستور داده شود که چیزی در غذای شخصی بیفزاید و او متوجه نشود که آن زهر است. علاوه بر این، بیلی می‌گوید که یک مجرم می‌تواند این کار را به چندین ربات بسپارد، بدون اینکه کسی کل نقشه را بفهمد.

بیلی ادعا می کند که سولاریان ها روزی می توانند از روبات ها حتی برای مقاصد نظامی استفاده کنند. اگر یک سفینه فضایی با مغزی شبیه ربات ساخته شده باشد و خدمه انسانی یا سیستم های پشتیبانی حیات نداشته باشد، پس هوش این کشتی ممکن است به اشتباه فرض کند که هر کسهیچ انسانی در سفینه فضایی وجود ندارد. چنین کشتی‌هایی مانورپذیرتر، سریع‌تر و احتمالاً مسلح‌تر از کشتی‌هایی هستند که توسط مردم کنترل می‌شود. اما مهمتر از همه، او قادر خواهد بود مردم را بدون اطلاع از حضور آنها نابود کند. این احتمال در "بنیاد و زمین" توضیح داده شده است، جایی که همچنین نشان می دهد که سولاریان ها ارتش بسیار قدرتمندی از روبات ها دارند که "انسان" را فقط به عنوان بومی سولاریا درک می کنند.

کاربردهای دیگر قوانین در داستان

اسحاق آسیموف معتقد بود که او قوانینبه عنوان مبنایی برای نگاهی جدید به ربات ها عمل می کند، "مجتمع فرانکشتاین" را در داستان های علمی تخیلی و آگاهی جمعی از بین می برد و به منبع ایده هایی برای داستان های جدید تبدیل می شود که در آن ربات ها همه کاره و جذاب نشان داده می شوند. نمونه مورد علاقه او از چنین آثاری جنگ ستارگان بود. نظر آسیموف مبنی بر اینکه ربات ها چیزی بیش از «توستر» یا «هیولاهای مکانیکی» هستند، در نهایت مورد موافقت سایر نویسندگان داستان های علمی تخیلی قرار گرفت. در آثار آنها، روبات ها ظاهر شدند و اطاعت کردند سه قانون، اما طبق سنت فقط آسیموف به صراحت آنها را ذکر کرد.

در آثاری که مستقیماً در مورد آنها صحبت می شود سه قانون، معمولاً نویسنده آنها ذکر می شود. استثنائاتی وجود دارد: به عنوان مثال، در سریال آلمانی دهه 1960 "Raumpatrouille - Die phantastischen Abenteuer des Raumschiffes Orion" ("گشت فضایی - ماجراهای خارق العاده سفینه فضایی Orion")، یعنی در قسمت سوم آن "Hüter des Gesetzes" "قانون خدمتگزار")، آسیموف قوانینبدون ذکر منبع جذب شد.

برخلاف انتقادها و برخی بازخوردهای مخاطبانی که شنیده ام، I, Robot یک فیلم اکشن علمی تخیلی بسیار سرگرم کننده است. ... وقتی ما ... می خواهیم از آسیموف لذت ببریم، آسیموف را می خوانیم. و وقتی می خواهیم یک فیلم اکشن علمی تخیلی ببینیم، یک فیلم اکشن علمی تخیلی تماشا می کنیم. «من روبات» به عنوان یک فیلم اکشن ما را کاملا راضی کرد.

نقد الکسی سادتسکی توجه را به این واقعیت جلب می کند که فیلم، با کمی فاصله گرفتن از آسیموف، خود دو مشکل اجتماعی-فلسفی جدید را ایجاد کرد. لازم به ذکر است که این فیلم بعدها را مورد تردید قرار داد قانون صفر رباتیکآسیموف (به بالا مراجعه کنید).

توسعه هوش مصنوعی یک تجارت است و همانطور که می دانیم کسب و کار علاقه ای به توسعه اقدامات امنیتی اساسی - به ویژه اقدامات فلسفی ندارد. در اینجا چند نمونه آورده شده است: صنعت تنباکو، صنعت خودرو، صنعت هسته ای. در ابتدا به هیچ یک از آنها گفته نشد که اقدامات امنیتی جدی لازم است و همه آنها با محدودیت های اعمال شده از خارج جلوگیری شد و هیچ یک از آنها حکم مطلقی را در مورد آسیب رساندن به مردم اتخاذ نکردند.

شایان ذکر است که مقاله ساویر موضوعات آسیب ناخواسته را حذف می کند، همانطور که برای مثال در خورشید برهنه بحث شده است. با این حال، مخالفت هایی نیز با این موضع وجود دارد: ارتش ممکن است بخواهد تا حد امکان از اقدامات احتیاطی ایمنی برای روبات ها استفاده کند و بنابراین محدودیت هایی مشابه قوانین رباتیک، به هر طریقی اعمال خواهد شد. دیوید لنگفورد نویسنده و منتقد علمی تخیلی به طعنه اشاره کرد که این محدودیت ها ممکن است به شرح زیر باشد:

راجر کلارک دو اثر نوشت که به تجزیه و تحلیل عوارض در اجرای قوانین اختصاص داشت، اگر روزی بتوان آنها را در فناوری به کار برد. او می نویسد:

قوانین رباتیک آسیموف به یک ابزار ادبی موفق تبدیل شده است. داستان‌های آسیموف، شاید به طعنه، یا شاید یک شاهکار، به طور کلی نکته‌ای را که او با آن شروع کرد رد می‌کند: محدود کردن رفتار روبات‌ها با اختراع و به‌کارگیری مجموعه‌ای از قوانین غیرممکن است.

از سوی دیگر، رمان‌های بعدی آسیموف (ربات‌های سپیده‌دم، روبات‌ها و امپراتوری، بنیاد و زمین) نشان می‌دهد که روبات‌ها آسیب‌های طولانی‌مدت‌تری به بار می‌آورند. رعایت قوانینو در نتیجه آزادی افراد را برای انجام رفتارهای خلاقانه یا مخاطره آمیز سلب می کند.

نویسنده داستان های علمی تخیلی هانس موراوک - یکی از چهره های برجسته در جنبش فراانسانی - پیشنهاد کرده است که قوانین رباتیکباید در سیستم‌های هوشمند شرکتی استفاده شود - شرکت‌هایی که توسط هوش مصنوعی کنترل می‌شوند و از قدرت تولیدی روبات‌ها استفاده می‌کنند. چنین سیستم هایی، به نظر او، به زودی بوجود می آیند.

Eliezer Yudkowsky در (SIAI) در ایالات متحده خطر جهانی را که هوش مصنوعی فوق بشری آینده می تواند ایجاد کند، در صورتی که برای انسان دوستی برنامه ریزی نشده باشد، بررسی می کند. در سال 2004، SIAI AsimovLaws.com را راه‌اندازی کرد، وب‌سایتی که برای بحث در مورد اخلاق هوش مصنوعی در زمینه مسائل مطرح‌شده در فیلم I, Robot که تنها دو روز بعد منتشر شد، طراحی شده بود. در این سایت، آن‌ها می‌خواستند نشان دهند که قوانین روباتیک آسیموف ناامن است، زیرا، برای مثال، آنها می‌توانند هوش مصنوعی را تشویق کنند که زمین را به تصرف خود درآورد تا از انسان‌ها در برابر آسیب «محافظت» کند.

یادداشت

  1. آسیموف، آیزاک.شواهد // رویاهای ربات. - م.: اکسمو، 2004. - ص 142-169. - شابک 5-699-00842-X
  2. آسیموف، آیزاک.انشا شماره 6. قوانین رباتیک // رویاهای ربات. - م.: اکسمو، 2004. - ص 781-784. - شابک 5-699-00842-X
  3. چهارشنبه با اسطوره گالاتیا
  4. جالب است که در یکی از ادامه های نویسنده، داستان "انتقام آدام لینک" () افکار او بیان شده است: یک ربات با اراده آزاد خود نباید کسی را بکشد..
  5. این داستان بعداً توسط فردریک پول تحت عنوان «بازیگر عجیب» در شماره سپتامبر 1940 Super Science Stories منتشر شد.
  6. سرگئی برژنوی.ایزاک آسیموف: مردی که حتی سریعتر نوشت. داستان روسی (1994). بایگانی شده از نسخه اصلی در 25 ژانویه 2012. بازیابی شده در 14 ژانویه 2007.
  7. اسحاق آسیموفدر شادی هنوز احساس می شود. - Doubleday, 1980. - ISBN 0-385-15544-1
  8. جف راسکین.رابط: جهات جدید در طراحی سیستم های کامپیوتری. - Symbol-Plus, 2003. - ISBN 5-93286-030-8
  9. همچنین ببینید: فرضیه گایا
  10. Les Cavernes d'acier. - J'ai Lu علمی-تخیلی، 1975. - ISBN 2-290-31902-3
  11. آسیموف، آیزاک.انشا شماره 12. ربات های من //

سه قانون رباتیک - مجموعه ای از قوانین اجباری که هوش مصنوعی (AI) باید از آنها پیروی کند تا به شخص آسیبی نرسد. این قوانین فقط در داستان های علمی تخیلی استفاده می شوند، اما اعتقاد بر این است که زمانی که هوش مصنوعی واقعی اختراع شد، به دلایل ایمنی، باید مشابه این قوانین را داشته باشد.

فرمولاسیون

در روسی

  1. یک ربات نمی تواند به شخص آسیب برساند یا با عدم اقدام، اجازه آسیب رساندن به شخص را بدهد.
  2. یک روبات باید از تمام دستورات داده شده توسط یک انسان اطاعت کند، مگر اینکه این دستورات با قانون اول مغایرت داشته باشند.
  3. یک ربات باید تا حدی از ایمنی خود مراقبت کند که با قانون اول یا دوم مغایرت نداشته باشد.

چه کسی و چرا آن را مطرح کرد

پاسخ کوتاه و صحیح این است: نویسنده علمی تخیلی ایزاک آسیموف، که زندگی نامه او را می توانید اینجا بخوانید. اما همه چیز به این سادگی نیست، بیایید بفهمیم که این ایده از کجا آمده است.

قبل از آسیموف، تقریباً تمام داستان های علمی تخیلی با موضوع ربات به سبک رمان فرانکنشتاین نوشته می شد، یعنی همه موجودات ساخته دست بشر علیه سازندگان خود شورش کردند.

این شماره در دهه‌های 1920 و 1930 به یکی از محبوب‌ترین‌ها در دنیای داستان‌های علمی تخیلی تبدیل شد، زمانی که داستان‌های زیادی نوشته شد که در آن روبات‌ها شورش می‌کردند و خالقان خود را نابود می‌کردند. از هشدارهایی که در آثاری از این دست شنیده می شود، به طرز وحشتناکی خسته شده ام.

با این حال، چند استثنا وجود داشت؛ آسیموف توجه را به دو داستان جلب کرد. هلن اولوی نوشته لستر دل ری درباره زنی روباتی است که عاشق خالق خود می شود و همسر ایده آل او می شود. و داستان Otto Binder "I, Robot" که سرنوشت ربات Adam Link را توصیف می کند که توسط مردم به اشتباه درک شده است و اصول شرافت و عشق را هدایت می کند.

آسیموف داستان آخر را چنان دوست داشت که پس از ملاقات با بایندر، شروع به نوشتن داستان خود در مورد ربات نجیب کرد. با این حال، وقتی دست‌نوشته‌اش را نزد دوست و سردبیر مجله‌ی «استاندینگ»، جان کمپبل برد، آن را نپذیرفت و دلیل آن این بود که داستان به‌دست‌آمده بسیار شبیه به «هلن اولوی» است.

امتناع از انتشار امری رایج بود و آسیموف و کمبل مرتباً با هم ملاقات می کردند و درباره تحولات جدید در دنیای داستان های علمی تخیلی بحث می کردند. در 23 دسامبر 1940، هنگام بحث در مورد داستان آسیموف دیگر درباره ربات ها، کمپبل همان سه قانون را تدوین کرد که ما اکنون آنها را قوانین رباتیک می نامیم. اما خود او گفت که فقط آنها را از آنچه قبلاً توسط آسیموف نوشته شده بود جدا کرد ، زیرا در داستان های او مشخص بود که روبات ها محدودیت ها و قوانینی دارند. خود آیزاک همیشه افتخار نویسندگی قوانین را به کمپبل واگذار می کرد. اما بعداً یکی از دوستان آسیموف گفت که قوانین در یک مشارکت سودمند متقابل بین دو نفر متولد شده اند که آنها با آن موافقت کردند.

چگونه کار می کنند

در یک موقعیت ایده آل، همانطور که آسیموف تصور می کند، این سه قانون در اساس مدل ریاضی مغز پوزیترونیک (همانطور که نویسنده علمی تخیلی مغز یک ربات با هوش مصنوعی نامیده است) تعبیه شده است، به طوری که در اصل چنین است. ایجاد یک ربات متفکر بدون این قوانین غیرممکن است. و اگر ربات سعی کند آنها را نقض کند، شکست خواهد خورد.

نویسنده در آثار خود راه‌های پیچیده‌ای را ارائه می‌کند که چگونه می‌توان این قوانین را نقض کرد و انواع علل و پیامدها را به تفصیل تحلیل می‌کند. نویسنده همچنین در مورد اینکه چگونه ربات‌ها آنها را متفاوت درک می‌کنند، چه عواقب نامطلوبی می‌تواند از پیروی از این سه قانون در بر داشته باشد، یا اینکه چگونه روبات‌ها می‌توانند به طور غیرمستقیم و بدون اینکه بدانند به انسان آسیب برسانند، صحبت می‌کند. آسیموف اعتراف کرد که او عمدا قوانین را مبهم کرده است تا درگیری و عدم قطعیت بیشتری برای داستان های جدید ایجاد کند. یعنی خود او کارایی آنها را رد کرد، اما همچنین استدلال کرد که چنین استانداردهایی تنها راه ایمن ساختن روبات ها برای مردم است.


در نتیجه این قوانین، آسیموف بعداً قانون چهارم رباتیک را تدوین کرد و آن را در وهله اول قرار داد، یعنی آن را صفر کرد. می‌خواند:

0. ربات نمی تواند آسیب برساند به بشریتیا با انفعال خود اجازه دهید به بشریتآسیب وارد شد

به زبان اصلی:

0. یک روبات ممکن است به بشریت آسیب نرساند، یا با انفعال، اجازه آسیب رساندن به بشریت را بدهد.


این قوانین را می توان در مورد روابط انسانی، دولت و به طور کلی برای هر چیزی به کار برد. به عنوان مثال می توانید کلمه "ربات" را با کلمه "state" جایگزین کنید.

نقل قول خوبی از داستان "سرنخ" وجود دارد که یکی از شخصیت ها می گوید:

اگر کسی تمام این قوانین را بدون نقص اجرا کند، به این معنی است که او یا یک ربات است یا یک فرد بسیار خوب.

اولین اشاره

این سه قانون به تدریج ظهور کردند. بنابراین، اشاره غیر مستقیم به دو مورد اول را می توان در داستان های «رابی» و «منطق» یافت. فرمول دقیق قانون اول اولین بار در داستان "دروغگو" شنیده می شود. و در نهایت، هر سه به طور کامل در داستان "رقص گرد" فرمول بندی شده اند.

تغییرات

آسیموف در آثار خود بارها ربات هایی را به تصویر می کشد که قوانین رباتیک را تغییر داده اند یا حتی خودشان آنها را اصلاح کرده اند. آنها این کار را با تفکر منطقی انجام دادند و ربات ها نیز مانند مردم از نظر توانایی های فکری با یکدیگر تفاوت داشتند و تقریباً می توان گفت که هر چه ربات باهوش تر باشد، بیشتر می تواند قوانین را اصلاح کند. به عنوان مثال، ربات ژیسکار از رمان‌های «ربات‌های سپیده‌دم» و «ربات‌ها و امپراتوری» حتی با اضافه کردن قانون صفر این قوانین را تقویت کرد. اما این یک استثنا از قاعده است؛ در اکثر موارد، قوانین توسط افراد برای اهداف خود تغییر داده شده است یا به دلیل برخی از خرابی های ربات نقض شده است.


به هر حال، امکان تغییر قوانین با توسعه رباتیک در جهان آسیموف تغییر کرد. بنابراین، در داستان‌های اولیه، جایی که وقایع در آینده‌ای نسبتاً نزدیک رخ می‌دادند، قوانین صرفاً نوعی مجموعه قوانینی بودند که برای ایمنی ایجاد می‌شدند. سپس، در طول زندگی سوزان کلوین روبوسیکولوژیست، قوانین به بخشی جدایی ناپذیر از مدل ریاضی مغز پوزیترونیک ربات تبدیل شدند؛ آگاهی و غرایز ربات ها بر اساس آنها بود. بنابراین سوزان کلوین در یکی از داستان‌های خود گفت که تغییر قوانین از نظر فنی امکان‌پذیر است، اگرچه کاری بسیار دشوار و زمان‌بر است و این ایده خود ایده‌ای وحشتناک است. خیلی بعد، دکتر جریگل در رمان «غارهای فولادی» گفت که چنین تغییری اصولاً غیرممکن است.

نحوه دور زدن

در برخی داستان ها، قوانین به قدری به شدت مورد بازنگری قرار گرفتند که مهمترین آنها - آسیب رساندن به شخص - رعایت نشد و در برخی موارد ربات ها موفق شدند هر سه قانون را زیر پا بگذارند. در اینجا چند اثر با نقض آشکار است.

    داستانی در مورد ربات MA-2 گفته می شود که از محافظت از شخصی به نفع "دختر" خود سرباز زد.

    آنها می خواستند توانایی آفرینش را از ربات سلب کنند و به همین دلیل او می خواست استاد خود را بکشد.

    این داستان احتمالاً متعلق به دیگران در مورد روبات‌های پوزیترونیک نیست، اما در مورد ماشین‌های روباتیکی می‌گوید که مردم دائماً به آنها صدمه می‌زنند و به خاطر آن توانستند آنها را بکشند.

    درباره ربات Elvex که به دلیل ساختار مغز پوزیترونیک خاص خود می تواند بیهوش باشد و رویا کند. در رویاهای او، روبات ها دو قانون اول را ندارند و قانون سوم تغییر کرده است: "روبات باید از خود محافظت کند." او در خواب دید که «روبات‌ها در عرق پیشانی خود کار می‌کنند، که از کار کمرشکن و اندوه عمیق افسرده شده‌اند، که از کار بی‌پایان خسته شده‌اند». افکار بسیار خطرناک برای یک ربات

    ساکنان سیاره سولاریا رباتیک بسیار پیشرفته ای داشتند. و دانشمندان این سیاره با جمعیت کمی که در آن هزار ربات برای هر نفر وجود داشت، قوانین را به گونه ای تغییر دادند که روبات های آنها فقط کسانی را که با لهجه سولاری صحبت می کردند، مردم می دانستند. از جمله، همه شهروندان سولاریا کنترل های ویژه ای را برای بسیاری از ربات ها در مغز خود کاشتند تا هیچ کس دیگری نتواند آنها را کنترل کند.

    آسیموف در این اثر تا حد امکان قوانین را تغییر داد. دو روبات در این داستان به توافق رسیدند که منشأ ارگانیک شرط لازم برای انسان در نظر گرفتن نیست و افراد واقعی روبات‌ها هستند، به عنوان موجودات پیشرفته‌تر و باهوش‌تر. مردم عادی هم از نظر آنها مردم هستند اما با اولویت کمتر و قوانین رباتیک در درجه اول برای آنها ربات ها قابل اجرا است.

من می خواهم اضافه کنم که ربات های "سالم"، اگر متوجه شوند که قانون اول را نقض کرده اند یا نمی توانند آن را زیر پا بگذارند، "بلاک رباتیک" یا "انجماد ذهنی" را تجربه می کنند - حالتی از مغز پوزیترونیک که در آن آسیب دیده و ربات یا از کار افتاده است، یا نمی تواند به درستی کار کند. چنین آسیبی می تواند موقت یا دائمی باشد.

اولین توصیف از چنین رویدادی در داستان "دروغگو" ظاهر شد، جایی که یک ربات بیش از حد حساس به مردم فقط آنچه را که می خواستند بشنوند گفت، از ترس اینکه آسیب روانی به آنها وارد شود. یک مورد جالب از یک بلوک ربات نیز در "رقص گرد" توضیح داده شده است. این حالت در رمان‌های «خورشید برهنه» و «ربات‌های سپیده‌دم» نیز نقش مهمی دارد.

استفاده در داستان های دیگر

شما اغلب می توانید ارجاعات مختلفی را در فیلم ها پیدا کنید. تعدادی مثال در زیر آورده شده است.

سیاره ممنوعه - 1956

یک تصویر علمی تخیلی آمریکایی بسیار پر شور از دهه 1950، تأثیر خاصی بر توسعه این ژانر داشت. در این فیلم تقریبا برای اولین بار رباتی با سیستم امنیتی داخلی نمایش داده شد که در واقع سه قانون را رعایت می کند. آسیموف خود از این ربات راضی بود.

فیلم با عبارت «بر اساس داستان های اسحاق آسیموف» شروع می شود. در اینجا باید درک کنید که "بر اساس" است و هیچ یک از داستان ها را تکرار نمی کند و حتی در برخی ایده ها تا حدودی به طرف مقابل رفته است و همچنین دارای تعدادی تضاد با داستان ها است. اما قوانین رباتیک بیش از آنچه در جای خود است، وجود دارد، هر چند آنها توسط عقل به گونه ای اندیشیده شده اند که برای انسان ها بهتر نیست. خود فیلم حتی مشکلات فلسفی-اجتماعی را نیز مطرح می‌کند: «آیا انسان باید برای امنیت خود با آزادی بپردازد» و «اگر موجوداتی که ما خلق کرده‌ایم و در اختیار ما آزادی می‌خواهند چگونه رفتار کنیم».

سری فیلم های «بیگانه ها» و «پرومته»

Android Bishop قانون اول را نقل می کند و به وضوح بر اساس برخی از قوانین آسیموف ایجاد شده است.

سریال انیمیشن "Futurama" - 1999 - 2013

Robot Bender آرزوی کشتن همه مردم را دارد، اما به دلیل قوانین روباتیک نمی تواند این کار را انجام دهد.

سری انیمیشن "زمان حوا" - 2008 - 2009

یک سری انیمیشن کوچک در مورد اندروید. این قوانین را الزامی ذکر می کند.

کاربرد در دنیای واقعی

افرادی که اکنون روی مشکلات هوش مصنوعی کار می کنند می گویند که متأسفانه قوانین آسیموف فقط یک ایده آل برای آینده باقی مانده است و در حال حاضر حتی امکان استفاده از آنها در عمل وجود ندارد. باید به نوعی نظریه اساساً جدید و مبتکرانه ارائه شود که به این قوانین اجازه دهد نه تنها برای روبات ها "تبیین" شوند، بلکه آنها را مجبور به پیروی از آنها و در سطح غرایز کند. خلق یک موجود متفکر واقعی، اما با مبنایی متفاوت از همه موجودات زنده روی زمین که می شناسیم.

اما تحقیقات در حال انجام است و موضوع بسیار محبوب است. به ویژه در این مورد، مشاغلی هستند که می دانید لزوماً اقدامات امنیتی را در اولویت قرار نمی دهند. اما در هر صورت، قبل از ایجاد یک سیستم هوش مصنوعی عمومی، یا حداقل شکل اولیه آن، خیلی زود است که در مورد اخلاقیات آن صحبت کنیم، خیلی کمتر برای تحمیل خود. ما تنها زمانی قادر خواهیم بود که بفهمیم هوش چگونه رفتار خواهد کرد که آن را ایجاد کنیم و مجموعه ای از آزمایش ها را انجام دهیم. ما تا کنون هدفی نداریم که بتوان این قوانین را در مورد آن اعمال کرد.

همچنین نباید فراموش کنیم که قوانین خود بی نقص خلق نشده اند. آن‌ها حتی در داستان‌های علمی تخیلی هم کار نمی‌کردند، و همانطور که به خاطر می‌آورید، به‌طور خاص به این شکل ساخته شده بودند.

به طور کلی، ما منتظر می مانیم، اخبار را در تحقیقات هوش مصنوعی دنبال می کنیم و امیدواریم که خوش بینی آسیموف در مورد روبات ها توجیه شود.

الکساندر ربن، مهندس دانشگاه کالیفرنیا برکلی، رباتی ساخته است که می تواند به یک فرد آسیب برساند و این تصمیم را خودش می گیرد. آفرینش این محقق اولین نمونه واضح از این است که چگونه یک ربات می تواند یکی از سه قانونی را که توسط نویسنده علمی تخیلی ایزاک آسیموف در داستان «رقص گرد» فرموله شده بود، بشکند.

سه قانون رباتیک:

1. یک ربات نمی تواند به شخص آسیب برساند یا با عدم اقدام، اجازه آسیب رساندن به شخص را بدهد.
2. یک ربات باید از تمام دستورات داده شده توسط یک انسان اطاعت کند مگر اینکه این دستورات با قانون اول مغایرت داشته باشد.
3. یک ربات باید تا حدی مراقب ایمنی خود باشد که با قانون اول یا دوم مغایرت نداشته باشد.

قانون اول بیان می‌کند که یک ربات نمی‌تواند به یک فرد آسیب برساند، اما Reben تصمیم گرفت به وضوح نشان دهد که بشریت باید قبل از روباتیک کردن همه چیز در اطراف خود به ایمنی خود فکر کند.

این مهندس طرحی بی ضرر با مکانی جداگانه برای انگشت انسان ایجاد کرد. به محض اینکه فردی ناحیه تعیین شده را لمس می کند، ربات این عمل را ثبت می کند و تصمیم می گیرد که به فرد آسیب برساند یا خیر. برای انجام این کار، ربات دارای یک سوزن کوچک است که برای نشان دادن قدرت ربات در مقابل یک فرد طراحی شده است.

Reben اشاره می کند که حتی سازنده نمی تواند رفتار یک ماشین به ظاهر بی ضرر را پیش بینی کند.

این محقق با ربات خود می‌خواست ثابت کند که باید بیشتر به فکر ایجاد یک "دکمه قرمز" بود تا توسعه سریع رباتیک و هوش مصنوعی.

طبیعتاً قبل از ظهور یک ربات با یک سوزن کوچک، پهپادها یا وسایل نقلیه نظامی بدون سرنشین تیراندازی می کردند، اما همه آنها نمی توانستند به طور مستقل تصمیم بگیرند که یک فرد را بکشند، زیرا در نهایت، مردم پشت نتیجه نهایی اقدامات هستند. چنین ماشین هایی هدف ایجاد Reben برای ایجاد آسیب نیست - خود تعیین می کند که چگونه در هر مورد خاص زمانی که انگشت در فاصله قابل دسترسی از سوزن قرار دارد رفتار کند.

این مهندس از مخالفان روبات ها دور است؛ ربن در طراحی چیزهای غیرعادی خلاق است. زرادخانه او شامل یک جعبه موسیقی با انرژی خورشیدی است که آهنگ شاد "You Are My Sunshine" را می نوازد، ماساژورهای هوشمند سر و یک ربات پچ پچ برای افراد خجالتی.

Reben چندین روز و چند صد دلار طول کشید تا ماشین "بی رحم" را ایجاد کند، اما همانطور که خود محقق می گوید، خلقت او تنها فرصتی است تا یک بار دیگر در مورد ایمنی بشریت و آینده آن صحبت کنیم.

علیرغم این واقعیت که ربات‌ها هنوز در جامعه همتراز با مردم زندگی نمی‌کنند، فیلم‌های علمی تخیلی درباره ماشین‌های انسان‌نما چندان دور از واقعیت نیستند: روبات‌ها از قبل به‌عنوان مدیر در شرکت‌ها استخدام شده‌اند و هوش مصنوعی می‌تواند پیش‌بینی آب و هوا یا حتی انجام دهد. جایگزین یک دوست برای افراد تنها چینی ها در دومی موفق شده اند - به عنوان مثال، میلیون ها نفر با دختر ناز Xiaoice دوست هستند، علی رغم این واقعیت که او فقط یک ربات چت است.

مثال Xiaoice یک بار دیگر ما را وادار کرد تا به این فکر کنیم که هوش مصنوعی چقدر می تواند غیرقابل کنترل باشد: به محض اینکه یک ربات چت از مایکروسافت با هوش مصنوعی به انگلیسی صحبت کرد، دختر به معنای واقعی کلمه "دیوانه شد".

در چند ساعت، تای (نامی که Xiaoice در طی فرآیند "تولد مجدد" دریافت کرد) توانست جوک های نژادپرستانه و کلمات فحش را یاد بگیرد که تصمیم گرفت در گفتگو با کاربران توییتر از آنها استفاده کند. اولین پیام تای عبارت "مردم خیلی باحال هستند" بود که پس از آن دختر قلابی از وجود هیتلر مطلع شد، فمینیست ها و در روند خودآموزی موفق شد ایالات متحده را عامل تروریست 11 سپتامبر اعلام کند. حملات

سازندگان آزمایش را به حالت تعلیق درآوردند و به این نتیجه رسیدند که ربات را خیلی زود منتشر کرده اند. پس از چنین حادثه قابل توجهی، مردم دوباره شروع به صحبت در مورد نیاز به ایجاد مانعی برای هوش مصنوعی کردند در صورتی که ماشین‌ها آنقدر هوشمند شوند که بتوانند از کنترل انسان فرار کنند.

مشهورترین افراد حوزه فناوری های جدید به خطرات ابرهوشی فکر کردند: بیل گیتس، بنیانگذار مایکروسافت، در گفتگو با کاربران Reddit، پیشنهاد کرد که روبات ها در کارهای خانه بی ضرر و مفید خواهند بود، اما اگر به سمت ابرهوشی رشد کنند، تبدیل خواهد شد. پیش بینی رفتار آنها بسیار دشوار است.

جولای گذشته، رئیس تسلا و اسپیس ایکس، ایلان ماسک، اخترفیزیکدان، استیون هاوکینگ، و استیو وزنیاک، بنیانگذار اپل، نامه‌ای را امضا کردند که در آن درباره خطرات هوش مصنوعی در بخش دفاع صحبت می‌کرد.

کارشناسان می گویند که ابراطلاعات همراه با سلاح می تواند به تهدیدی برای تمام بشریت تبدیل شود.

همانطور که در این نامه آمده است، سلاح هایی که بتوان از آنها برای دور زدن عامل انسانی استفاده کرد، به دوران جدیدی در مسابقه تسلیحاتی منجر می شود و در عین حال تاکید می شود که این یک واقعیت ساختگی نیست، بلکه آینده ای است که می تواند تنها در چند سال آینده فرا برسد. درخواست تجدیدنظر، به ویژه اشاره می کند که اگر چنین فناوری هایی به دست تروریست ها بیفتند، نظم جهانی ممکن است مختل شود.

پروانه ها البته در مورد مارها چیزی نمی دانند. اما پرندگانی که پروانه ها را شکار می کنند در مورد آنها می دانند. پرندگانی که مارها را به خوبی نمی شناسند بیشتر احتمال دارد...

  • اگر octo به معنای "هشت" لاتین است، پس چرا یک اکتاو حاوی هفت نت است؟

    اکتاو فاصله بین دو صدای نزدیک به هم نام است: انجام و انجام، دوباره و دوباره و غیره.

  • چرا افراد مهم را آگوست می نامند؟

    در 27 ق.م. ه. امپراتور روم اکتاویان عنوان آگوستوس را دریافت کرد که در لاتین به معنای "مقدس" است (به احترام همان شخصیت، اتفاقا ...

  • در فضا چه می نویسند؟

    یک جوک معروف می گوید: «ناسا چندین میلیون دلار هزینه کرد تا قلم مخصوصی بسازد که بتواند در فضا بنویسد.

  • چرا اساس زندگی کربن است؟

    حدود 10 میلیون مولکول آلی (یعنی کربنی) و تنها حدود 100 هزار مولکول معدنی شناخته شده است. علاوه بر این...

  • چرا لامپ های کوارتز آبی هستند؟

    برخلاف شیشه معمولی، شیشه کوارتز اجازه عبور نور فرابنفش را می دهد. در لامپ های کوارتز منبع نور فرابنفش تخلیه گاز در بخار جیوه است. او...

  • چرا گاهی باران می بارد و گاهی نم نم باران؟

    با اختلاف دما زیاد، جریان های صعودی قدرتمندی در داخل ابر ایجاد می شود. به لطف آنها، قطرات می توانند برای مدت طولانی در هوا بمانند و ...

  • جدید در سایت

    >

    محبوبترین