پرش به محتوا

اخلاق هوش مصنوعی

از ویکی‌پدیا، دانشنامهٔ آزاد

اخلاق هوش مصنوعی (به انگلیسی: Ethics of artificial intelligence) بخشی از اخلاق تکنولوژی است که به صورت خاص به ربات و هوش مصنوعی مربوط می‌شود، و بیشتر راجع به نحوه رفتار و عملکرد انسان با هوش مصنوعی و بالعکس آن است. در اخلاق هوش مصنوعی به بررسی حقوق ربات‌ها و درستی یا نادرستی بر جایگزین شدن آن‌ها در نقش‌های انسانی می‌پردازیم.

اصول اخلاقی ماشین

[ویرایش]

اخلاق ماشین(یا اخلاقیات ماشینی) حوزه ای تحقیقاتی است که مسئله اش طراحی عامل های اخلاقی مصنوعی، ربات ها یا کامپیوتر های با هوش مصنوعی است که به‌طور اخلاقی رفتار میکنند.[۱][۲][۳][۴] برای به حساب آوردن ذات و طبیعت این عامل ها، پیشنهاد شده است که ایده های فلسفی خاصی در نظر گرفته شوند، مثلا دسته بندی های استاندارد عاملیت، عاملیت عقلانی، عاملیت اخلاقی و عاملیت مصنوعی، که به مفهوم عامل های اخلاقی مصنوعی مرتبط اند.[۵]

در حال حاضر حول انجام آزمایش هایی برای دیدن اینکه آیا هوش مصنوعی توانایی تصمیم گیری اخلاقی دارد یا نه، مباحثاتی وجود دارد. آلن وینفیلد معتقد است که آزمایش تورینگ ایراد دارد و سطح نیازمندی های آن برای اینکه یک هوش مصنوعی در آن قبول شود پایین است.[۶] یک آزمایش جایگزین پیشنهادی آزمایش اخلاقی تورینگ است، که با انتخاب چند قاضی برای تصمیم گیری درمورد اینکه هر تصمیم هوش مصنوعی اخلاقی است یا نه، آزمایش فعلی را بهبود می بخشد.[۶] هوش مصنوعی نورومورفیک می تواند یک راه ساختن ربات های اخلاق مدار باشد، زیرا هدف آن پردازش اطلاعات به مانند انسان ها، به‌طور غیر خطی و به همراه میلیون ها نورون مصنوعی به هم متصل است.[۷] به‌طور مشابه، تقلید مغزیِ کلی(اسکن کل ساختار مغز و شبیه سازی آن در سخت افزار دیجیتالی) اصولا باید منجر به ساخت ربات های انسان نما شود که در نتیجه، توانایی کنش اخلاقی دارند.[۸] همین‌طور مدل های زبانی بزرگ می توانند قضاوت های اخلاقی انسان را تخمین بزنند.[۹] به‌ناچار چنین چیزی درمورد محیطی که این ربات ها در آن درباره ی جهان یاد می گیرند و اینکه اخلاقیات چه کسی را به ارث می برند، پرسش و مسئله را طرح می کند. یا این سؤال که آیا آن ها ضعف های انسانی را هم در خود توسعه می دهند؟ ضعف هایی مانند خودخواهی، رویکرد بقامحورانه ی شدید، عدم انسجام، عدم حساسیت به مقیاس و غیره.

در کتاب "ماشین های اخلاقی: آموزش درست و غلط به ربات ها"[۱۰]، وندل والاک و کولین الن نتیجه می گیرند که تلاش ها برای آموزش درست و غلط به ماشین ها، احتمالا باعث پیشرفت فهم ما از اصول اخلاقی انسانی می شود که این از طریق انگیزه بخشیدن به انسان ها برای شناسایی حفره های تئوری اخلاق هنجاری و فراهم آوردن جایگاهی برای آزمون و خطا صورت می گیرد. به عنوان مثال، نظریه پردازان اخلاق هنجاری را به مسئله ای جنجالی حول انتخاب اینکه کدام یک از الگوریتم های یادگیری به خصوص ماشین باید استفاده شود معرفی کرده است. نیک باستروم و الیزر یودکوفسکی استدلال میکنند که برای تصمیم های ساده، درخت های تصمیم واضح تر از شبکه های عصبی و الگوریتم های ژنتیک هستند.[۱۱] در حالی که کریس سنتوس-لنگ به نفع یادگیری ماشین استدلال می کند. استدلال او بر این مبنا است که باید به هنجار های هر نسل این اجازه را داد که تغییر کنند و اینکه شکست طبیعی در ارضای کامل این هنجار های به خصوص، در کمتر آسیب پذیر کردن انسان ها نسبت به هکر های تبهکار ضروری و حیاتی است.

روباتیک

[ویرایش]

اصطلاح «رباتیک» در سال ۲۰۰۲ ابداع شد. با اشاره به سیرت ساختن، شکل دادن، رفتار کردن و استفاده کردن از ربات‌ها.[۱۲] و به عبارت دیگر دربارهٔ این که چگونه ربات‌ها می‌توانند برای انسان‌ مفید یا مضر باشند صحبت می‌کند. بنابر پیش‌بینی و با توجه به روند زیاد شدن تعداد ربات‌ها گمان می‌رود که تا سال ۲۰۳۰ تعداد ربات‌ها به شکل قابل توجهی زیاد شود همان‌طور که رشد ۲۴ درصدی را در سال ۲۰۱۴ در تعداد ربات‌ها مشاهده شد.[۱۳]

حقوق ربات‌ها

[ویرایش]

حقوق ربات‌ها انتظار اخلاقی آن‌ها در قبال جامعه و دیگر ماشین‌ها است و به مانند حقوق بشر یا حقوق حیوانات می‌باشد[۱۴] و ممکن است شامل حق زندگی، آزادی، آزادی اندیشه، آزادی بیان و برابری در برابر قانون باشد.[۱۵] این موضوع توسط اندیشکده موسسه‌ای برای آینده [۱۶] و وزارت تجارت و صنعت انگلستان در حال پیگیری است.[۱۷]

کارشناسان اختلاف نظر دارند که آیا قوانین خاص و دقیق به زودی مورد نیاز خواهد بود یا با آسودگی در آینده دور می‌توان به آن فکر کرد.[۱۷] گلن مک گی گفته بود به نظر می‌رسد تا سال ۲۰۲۰ ممکن است به اندازه کافی روبات انسان نما وجود داشته باشد.[۱۸] ری کورزویل تاریخ احتمالی این واقعه را در سال ۲۰۲۹ می‌بیند.[۱۹] گروه دیگری از دانشمندان در جلسه ای در سال ۲۰۰۷ به این نتیجه رسیدند که حداقل ۵۰ سال طول خواهد کشید تا بشر بتواند سیستمی با هوش سطح بالا تولید کند و موجودات هوشمند انسان ساز وجود داشته باشند.[۲۰]

قوانین سال ۲۰۰۳ مسابقه جایزه لوبنر به صراحت این مشکل را دربارهٔ مالکیت و حقوق ربات‌ها مطرح کرده بود:

یک ربات نقاش که می‌تواند در آینده جایگزینی برای نقاش‌های انسانی باشد

قانون شماره ۶۱. اگر در هر سالی، یک پروژه نرم‌افزار متن باز وارد شده از طرف دانشگاه سوری یا دانشگاه کمبریج برنده مدال نقره یا مدال طلا شود، آنگاه مدال و جایزه نقدی مسابقه به افرادی اهدا خواهد شد که مسئولیت توسعه آن پروژه یا نرم‌افزار را داشته‌اند. اگر هیچ فردی به این عنوان تشخیص داده نشد یا اختلاف نظری میان تعداد دو یا بیشتر کاندیدا برای مسئول بودن پروژه وجود داشت. مدال و جایزه نقدی نگه داشته خواهد شد تا زمانی که آن پروژه به صورت قانونی دارای صاحب شود و آنگاه مدال و جایزه به صورت قانونی اهدا خواهد شد.[۲۱]

تهدید انسان

[ویرایش]

الکساندر سولژنیتسین در رمان اولین دایره تکنولوژی تشخیص گفتار را توصیف کرد که در خدمت حکومت استبدادی بود و مکالمات انسان‌ها را تهدید می‌کرد.[۲۲] اگر یک برنامه هوش مصنوعی وجود داشته باشد که توانایی درک طبیعی زبان و گفتار (مثلاً زبان انگلیسی) را داشته باشد پس به صورت نظری با قدرت پردازش مناسب می‌تواند به هر مکالمه تلفنی گوش بدهد و هر ایمیلی را در جهان بخواند و آن را درک کند و به برنامه اپراتور دقیقاً آنچه گفته شده‌است و دقیقاً آن کس که آن را گفته‌است را گزارش دهد. برنامه هوش مصنوعی مانند این مورد می‌تواند به دولت‌ها یا نهادها کمک کند تا مخالفان خود را سرکوب کنند و کاملاً یک تهدید برای حریم خصوصی محسوب می‌شود.

تهدید نسل بشر

[ویرایش]

همان‌طور که در بسیاری از فیلم‌ها و داستان‌های علمی تخیلی دیده می‌شود. همواره فکر تهدید نسل بشر توسط ربات‌ها در هنگام بلوغ فکری و هوشی آن‌ها بعد از مطرح شدن هوش مصنوعی وجود داشته. اما بعد از انتشار برخی از پیشبینی‌ها مانند جایگزین شدن ۴۵ درصدی سربازان انسانی نظامی به سربازان ربات تا سال ۲۰۲۵ این نگرانی‌ها شکل جدی تری به خود گرفت.[۲۳] از آن جا که تا سال ۲۰۳۰ احتمال دارد درصد بسیار زیادی از کارگران و مجریان اجتماع ربات‌ها باشند در صورت شورش یا اغتشاشی از جانب آن‌ها ممکن است نسل و نژاد انسان به خطر بی افتد.[۲۴][۲۵] در این صورت شاید باید قوانینی مبنی بر محدود کردن دایره تفکر، احساس، خودمختاری و آزادی ربات‌ها بنا گذاشت.[۲۶]

تهدید کرامت انسانی

[ویرایش]

یوسف ویزینبام در سال ۱۹۷۶ بیان کرد که تکنولوژی هوش مصنوعی نباید به جای انسان در موقعیت‌های که نیاز به توجه و مراقبت و احترام دارند استفاده شوند مانند هر یک از این موارد:

ویزینبام توضیح می‌دهد که ما در این موقعیت‌ها نیاز به احساس همدلی و درک متقابل از فرد داریم. اگر در این کارها ماشین‌ها جای انسان را بگیرند ما خود را نسبت به آن‌ها بیگانه می‌دانیم، احساس کم ارزشی و فرسودگی می‌کنیم. هوش مصنوعی اگر در این راه استفاده شود یک تهدید برای کرامت انسانی محسوب می‌شود.[۲۷]

پاملامککوردوک در هنگام سخنرانی با زنان بیان کرد "من می‌خواهم شانسم را با یک کامپیوتر بی طرف امتحان کنم " که به این اشاره می‌کرد که قضاوت یک کامپیوتر به عنوان یک قاضی یا پلیس بی‌طرف است و غرایز انسانی در آن دیده نمی‌شود.[۲۷] بنیان‌گذار هوش مصنوعی جان مک کارتی نتیجه‌گیری اخلاقی ویزینبام را نقد می‌کند. "هنگامی که اخلاقیات انسان مبهم و ناکامل است، موجب می‌شود که گاهی استبداد را فرا خواند ".

بیل هیبارد[۲۸] می‌نویسد: «کرامت انسانی مستلزم آن است که ما برای خلاص شدن از جهل نسبت به موجودات جهان تلاش کنیم و هوش مصنوعی برای این تلاش لازم است.»

شفافیت و متن باز

[ویرایش]

بیل هیبارد می‌گوید که به دلیل این که هوش مصنوعی تأثیر عمیقی بر انسانیت دارد، بنابراین توسعه دهندگان هوش مصنوعی نماینده انسانیت در آینده هستند و به همین دلیل باید تعهد اخلاقی آن‌ها در تلاششان به وضوح مشخص باشد.[۲۹] بن گویرتزل و دیوید هارت OpenCog را به عنوان یک منبع باز برای توسعه هوش مصنوعی ایجاد کردند.[۳۰] OpenAI یک شرکت تحقیقاتی هوش مصنوعی غیرانتفاعی ایجاد شده توسط ایلان ماسک، سام آلتمن و افرادی دیگر است که به منظور توسعه هوش مصنوعی به صورت منبع باز برای بهبود آینده بشریت فعالیت می‌کند.[۳۱] و همچنین تعداد بسیار زیادی شرکت‌های منبع باز دیگر برای این اهداف وجود دارند.

جستارهای وابسته

[ویرایش]
محققان
سازمان

پانویس

[ویرایش]
  1. Anderson. "Machine Ethics". Archived from the original on 28 September 2011. Retrieved 27 June 2011.
  2. Anderson, Michael; Anderson, Susan Leigh, eds. (July 2011). Machine Ethics. Cambridge University Press. ISBN 978-0-521-11235-2.
  3. Anderson, M.; Anderson, S.L. (July 2006). "Guest Editors' Introduction: Machine Ethics". IEEE Intelligent Systems. 21 (4): 10–11. doi:10.1109/mis.2006.70. S2CID 9570832.
  4. Anderson, Michael; Anderson, Susan Leigh (15 December 2007). "Machine Ethics: Creating an Ethical Intelligent Agent". AI Magazine. 28 (4): 15. doi:10.1609/aimag.v28i4.2065. S2CID 17033332.
  5. Boyles, Robert James M. (2017). "Philosophical Signposts for Artificial Moral Agent Frameworks". Suri. 6 (2): 92–109.
  6. ۶٫۰ ۶٫۱ Winfield, A. F.; Michael, K.; Pitt, J.; Evers, V. (March 2019). "Machine Ethics: The Design and Governance of Ethical AI and Autonomous Systems [Scanning the Issue]". Proceedings of the IEEE. 107 (3): 509–517. doi:10.1109/JPROC.2019.2900622. ISSN 1558-2256. S2CID 77393713.
  7. Al-Rodhan, Nayef (7 December 2015). "The Moral Code". Archived from the original on 2017-03-05. Retrieved 2017-03-04.
  8. Sauer, Megan (2022-04-08). "Elon Musk says humans could eventually download their brains into robots — and Grimes thinks Jeff Bezos would do it". CNBC (به انگلیسی). Retrieved 2024-04-07.
  9. Anadiotis, George (April 4, 2022). "Massaging AI language models for fun, profit and ethics". ZDNET (به انگلیسی). Retrieved 2024-04-07.
  10. Wallach, Wendell; Allen, Colin (November 2008). Moral Machines: Teaching Robots Right from Wrong. USA: Oxford University Press. ISBN 978-0-19-537404-9.
  11. Bostrom, Nick; Yudkowsky, Eliezer (2011). "The Ethics of Artificial Intelligence" (PDF). Cambridge Handbook of Artificial Intelligence. Cambridge Press. Archived (PDF) from the original on 2016-03-04. Retrieved 2011-06-22.
  12. Veruggio, Gianmarco (2007). "The Roboethics Roadmap" (PDF). Scuola di Robotica: 2. Archived from the original (PDF) on 15 August 2011. Retrieved 28 March 2011. {{cite journal}}: Cite journal requires |journal= (help)
  13. «Statistics - IFR International Federation of Robotics». www.ifr.org. بایگانی‌شده از اصلی در ۲۷ مارس ۲۰۱۶. دریافت‌شده در ۲۰۱۶-۰۶-۲۷.
  14. Evans, Woody (2015). "Posthuman Rights: Dimensions of Transhuman Worlds". Universidad Complutense Madrid. Retrieved 7 April 2016. {{cite journal}}: Cite journal requires |journal= (help)
  15. The American Heritage Dictionary of the English Language, Fourth Edition
  16. "Robots could demand legal rights". BBC News. December 21, 2006. Retrieved January 3, 2010.
  17. ۱۷٫۰ ۱۷٫۱ Henderson, Mark (April 24, 2007). "Human rights for robots? We're getting carried away". The Times Online. The Times of London. Archived from the original on 17 May 2008. Retrieved May 2, 2010.
  18. McGee, Glenn. "A Robot Code of Ethics". The Scientist. Archived from the original on 9 April 2011. Retrieved 5 June 2016.
  19. Kurzweil, Ray (2005). The Singularity is Near. Penguin Books. ISBN 0-670-03384-7.
  20. The Big Question: Should the human race be worried by the rise of robots?, Independent Newspaper,
  21. Loebner Prize Contest Official Rules — Version 2.0 بایگانی‌شده در ۳ مارس ۲۰۱۶ توسط Wayback Machine The competition was directed by David Hamill and the rules were developed by members of the Robitron Yahoo group.
  22. (McCorduck 2004, p. 308)
  23. "تهدید نژاد انسان به وسیله ربات ها".
  24. Naughton، John (۲۰۱۲-۱۲-۰۲). «Could robots soon add to mankind's existential threats?». the Guardian. دریافت‌شده در ۲۰۱۶-۰۶-۲۷.
  25. «Is Artificial Intelligence Really A Threat To Humanity?». ۲۰۱۵-۰۸-۲۸. دریافت‌شده در ۲۰۱۶-۰۶-۲۷.
  26. «Google developing 'kill switch' to stop robot uprising against humans». دریافت‌شده در ۲۰۱۶-۰۶-۲۷.
  27. ۲۷٫۰ ۲۷٫۱ Joseph Weizenbaum, quoted in (McCorduck 2004، صص. 356, 374–376)
  28. Hibbard, Bill (2014): "Ethical Artificial Intelligence".
  29. Open Source AI.
  30. OpenCog: A Software Framework for Integrative Artificial General Intelligence.
  31. Inside OpenAI, Elon Musk’s Wild Plan to Set Artificial Intelligence Free Cade Metz, Wired 27 April 2016.

پیوند به بیرون

[ویرایش]