A lo largo de las páginas de este libro, se tratan, de manera concisa y accesible, los principales problemas éticos que el desarrollo de la inteligencia artificial y su aplicación a un gran número de ámbitos de nuestra vida cotidiana han planteado en los últimos años. ¿A qué ética responde la decisión de una máquina? ¿En qué consiste exactamente tomar decisiones? ¿Podemos considerar a la máquinas responsables de sus actos y de las consecuencias que conllevan? ¿Cómo aprende y actúa una inteligencia artificial? Estas preguntas y otras muchas exigen respuestas urgentes. De la publicidad a los mercados financieros, de la industria armamentística a la de la automoción, de las redes sociales al internet de las cosas, la IA ocupa un lugar cada vez más relevante en nuestra vida, aunque solo en algunas ocasiones seamos conscientes de ello.
Mark Coeckelbergh is Professor of Philosophy of Media and Technology at the University of Vienna. He is the author of New Romantic Cyborgs: Romanticism, Information Technology, and the End of the Machine, AI Ethics (both published by the MIT Press), Introduction to Philosophy of Technology, and other books.
I wish I had read this book at the beginning of my PhD. I think it's a great introduction to the topic of AI and ethics, but at this current stage of mine, after reading for almost nine months, the book felt short in depth. In my opinion, the book starts very well, since it clearly explains what AI is and what different positions are regarding AI present and future. Moreover, it mentions some of the most important (current) topics related to AI applied to society. Remarkably, it even introduces provocative authors such as Hubert Dreyfus and Donna Haraway, as well as the issue of how AI can affect the current climate crisis. However, it is more a book for a general audience, who have started to feel curious about how AI could change the path of ethics, not for people who want to go deeper into the root causes. I also appreciated the fact that the author is a professor of philosophy of technology since I can see his careful way of not trying to impose his particular view on AI and asks us questions without giving us answers throughout the book. For all of these and its briefness [in Spanish we say: the good, if brief, is twice as good], I give the book four stars.
Not as good as I hoped. A decent overview of issues. But there isn't much ethical background that would provide for rich discussions. And it turns more to policy concerns. It will serve my purposes in the classroom, since I'll provide the ethical toolbox that is needed. But not a great resource just on its own.
A very short but surprisingly informative primer on AI ethics. In brief: AI ethics can be broadly categorized into the following:
BIAS: AI systems can (and do) perpetuate biases (e.g. racism, sexism, homophobia, and heteronormativity) present in their training data (i.e. the internet 😳). This can lead to some SERIOUS problems in areas (including but not limited to): hiring, law enforcement and loan approval.
Which is not a problem.
Unless you want to NOT be poor and go to jail.
Then (of course) it is.
PRIVACY: AI technologies learn about users via surveillance of online and offline behavior. As such, AI can (and does) infringe on our privacy. Which basically who cares.
Except for the fact that AI can (and does) use all that data to manipulate us into doing self destructive shit (like watching WAY too many TikTok’s instead of writing my dissertation).
TRANSPARENCY/ACCOUNTABILITY: Many (if not most) AI systems are black boxes, meaning NOBODY, not even their programmers know WHAT they actually do, or HOW they actually do what they do, to good people like me and you.
This means that AI systems that determine important shit like all that stuff in the BIAS section about getting a job, or going to jail, or getting a loan, etc., not only lack transparency, but also lack accountability. If you’re not concerned, again, go back to the BIAS section and reread.
If you’re still not concerned.
You’re probably a straight, white male.
So you might be ok.
But maybe not.
Which leads us to our next issue.
JOB DISPLACEMENT: AI and other forms of automation raise OBVIOUS concerns about the future of work. I grew up in Michigan in the 1970s and 1980s. Basically, automation and globalization made the domestic manufacturing sector pretty much disappear.
I was young and privileged enough to get up and leave.
But not everyone had that option.
And it hurt a lot of people who were already disadvantaged.
Only this time around.
AI is poised to impact white collar and tech workers.
Which, last time I checked, includes some straight white men.
Doh!
SECURITY: AI systems be designed to be safe, or they can just as easily be designed to FUCK you. Cambridge Analytica is one OBVIOUS example. For those of you that don’t remember. They are the nice folks who scraped your FB data to get TRUMP elected.
If you’re still not worried.
Think about using that same technology to scrape your gramma’s social security check out of her bank account.
Still not worried?
Just think about how that’s going to be YOU pretty soon.
ETHICAL ALIGNMENT: this one involves making sure that AI enhances (rather than harms) people (including animals).
For instance, if we set AI to the task of solving global climate change. And the OBVIOUS solution is to eliminate 75% of the earths population. How do we make sure nothing like that actually happens. Still not concerned. Go back and read the BIAS, and TRANSPARENCY/ACCOUNTABILITY parts.
Anyway.
Hanna Arendt coined the term “Banality of Evil” to describe how ordinary people can commit heinous atrocities through blind obedience to authority and unthinking adherence to social norms.
The Banality of Evil suggests that HORRIFIC shit can occur via mundane activities and normal motivations of everyday knot heads like me n you 😊.
The Banality of Evil highlights the importance of critical thinking and ethical judgment in preventing atrocities.
Like global climate change.
And some of the other things we explored together today.
- El fantasma del totalitarismo vuelve una vez más: no en historias de ciencia ficción distópicas o pesadillas anticuadas de posguerra, sino por medio de tecnologías de consumo ya disponibles en el mercado. "Ética de la inteligencia artificial" es la lectura idónea para adentrarse en una temática estrechamente relacionada con la presente era digital: la IA. Coeckelbergh ofrece un análisis profundo del concepto, atendiendo a varias ideas realmente relevantes. Ejemplo de esto sería la utilización del término heideggeriano 'dasein' para aludir al bagaje inconsciente del conocimiento común basado en la experiencia (ser-en-el-mundo, know-what o saber que) propio del ser humano, y no, por contra, de las máquinas, que representarían más bien el know-how (saber cómo). Adentrándose en cuestiones como las relaciones personales, el autor ahonda en problemas totalmente trascendentes en nuestro tiempo, como la ilusión de compañía generada por la tecnología, que incrementa el riesgo de la soledad o el deterioro de las relaciones sociales. Ofreciendo un estudio de las diversas esferas a las que afecta la inteligencia artificial débil, Coeckelbergh consigue desglosar exhaustivamente las implicaciones del Frankenstein contemporáneo.
This is a well-done compendium of the ethical considerations that need to be addressed as we progress with AI, but if you have read anything or thought about this subject at all you are not likely to encounter anything new. In addition, it is rather repetitive. My husband and I are listening together, and one day when we sat down to listen to a new chapter he said, "Didn't we already listen to this one?" We had not, but it felt like it. A special alert about the audio version: Definitely 1 star. The narrator is Irish, according to his bio, and his accent is definitely NOT BBC. I found it so annoying and distracting that I seriously considered quitting partway through.
كتاب عن أهمية مناقشة الموضوع أكثر من كونه يقدم مناقشة للموضوع ذاته ويسهب في معنى الذكاء الاصطناعي ويغفل عن معنى الأخلاق ويعالجه بركاكة وغاية أمثلته هي التغير المناخي والعنصرية الكتاب محدود العرض والمعالجة والتوصيات والأهم هو غياب بوصلة ومبادئ وغايات الكتاب وربما استحق ترجمةً أنسب، وإليكم اقتباسين لطيفين " يتبين أن سياسات أخلاقيات الذكاء الاصطناعي متشابهة بدرجة كبيرة وملحوظة على الرغم من الاختلافات الثقافية . تتعلق مسألة الإهمال بما إذا كان شخص ما مُلتزما بواجب الرعاية، حتى إذا لم يكن الضرر مقصودًا. ينطبق ذلك على مصمم أو مدرب الذكاء الاصطناعي؟ ولكن ما مدى سهولة التنبؤ بعواقب الذكاء الاصطناعي؟ القانون الجنائي يتطلب نِيَّة إيقاع الضرر، وهذا ليس الحال هنا. من ناحية أخرى، لا تتعلق المسئولية عن المنتج بخطأ الأفراد ولكنها تفرض على الشركة التي أنتجت التكنولوجيا دفع تعويضات عن الأضرار، بغض النظر عن الخطأ. ويمكن أن يكون هذا أحد الحلول الممكنة للمسئولية القانونية عن الذكاء الاصطناعي. كذلك تتصل قوانين الملكية الفكرية بالذكاء الاصطناعي، مثل حقوق الطبع والنشر وبراءات الاختراع، وقد بدأت مناقشات حول «الشخصية الاعتبارية» للذكاء الاصطناعي، وهو ما يُعد افتراضًا قانونيًا ولكنه ذريعة تُطبق حاليا على الشركات ومختلف المنظمات. فهل يجب أن يُطبّق أيضًا على الذكاء الاصطناعي؟ في قرار مثير للجدل في عام ۲۰۱۷، اقترح البرلمان الأوروبي أن منح الروبوتات الذاتية التشغيل الأكثر تطورًا منزلة الأشخاص الإلكترونيين هو حلّ قانوني ممكن لقضية المسئولية القانونية؛ وهذه الفكرة لم يتم الاعتراف بها من قبل المفوضية الأوروبية في استراتيجيتها للذكاء الاصطناعي في عام ۲۰۱۸. كذلك اعترض آخرون اعتراضًا حازمًا على فكرة إعطاء حقوق وشخصية للآلات، مجادلين، على سبيل المثال، بأنه سيُصبح من الصعب، إن لم يكن من المستحيل، محاسبتهم. "
Ah! So many important questions posed! Satisfyingly tight writing that managed to be the opposite of dry (moist?)! This is what I'm talking about! I hope these exclamation points are accurately conveying my enthusiasm about this book!
Coeckelbergh gives a good overview of AI ethics and the current state of the field. However, since AI is still relatively novel there isn’t much to talk about. For example, he talks about creating policies to regulate AI but most of what he discusses is not yet implemented or is hypothetical. He does bring up the point that it is important to tackle these ethical questions before AI is intergrated into our everyday lives and it is too late to go back, which explains his writing of the book.
The book is very philosophical and does not really take any firm stances in my opinion. The book is explains what AI ethics is, why it is important, and gives a variety of perspectives on the topic. It is not perscriptive though, I did not feel that Coeckelbergh ever was saying we should do this or that, but rather that ‘we should do something’. That is mostly why I gave the book 3 stars, I still enjoyed the read and learned a bit about a topic I am interested in.
This entire review has been hidden because of spoilers.
"From this perspective, transhumanist fantasies about superintelligence and about leaving the Earth can be interpreted as exponents of a problematic kind of alienation and escapism."
I'm not sure whether my review and rating is fair. A disclaimer: I think that I know a lot about AI, philosophy/ethics, and their combination. So, maybe this book is not targeted at me. I guess, it could be an okay introduction for newbies but it seems to me that a lot of ethics is missing here. The author uses plenty of commonly reiterated cases of AI being misapplied. But it's mostly hinting at the societal impact. There is not much in terms of ethical discussion here. It's a pity. Maybe if the book would be 4x longer, there would have been space to include ethics. But this version of the book doesn't add much if you had a bit of exposure to AI impact thinking.
4.5/5 stars for me, I highly recommend it for both practitioners and non-practitioners. Accessible book for a wide audience covering AI Ethics. Both sides of the coin are observed, from the dream/nightmare superintelligence scenarios to concerns closer rooted in today's actual challenges. I found the introduction chapters incredibly interesting, especially chapter 2 which connects our past to what drives us to think the way we do today about AI. Although I enjoyed it, I would say it raises a lot more questions than answers (understandably so given how complex the topic is). But I was hoping for more suggestions on 'how' to aim for more ethical AI.
há partes muito interessantes, mas no geral é um livro muito raso e repetitivo, que poderia ter sido reduzido em no máximo 80 páginas. o autor repete muitas informações, e para um livro que se propõe a discutir a ética na inteligência artificial leva muito tempo para que a discussão realmente aconteça, em muitos capítulos ele aponta que determinada questão é ética e segue falando que depois falará sobre isso. em suma, acredito que seja um livro para iniciar a discussão e trazer informação sobre a parte técnica da ia, mais do que a parte ética.
Artificial intelligence (AI) has become a buzzword, for better or for worse and for some it is the saviour of humanity, for others the spawn of the devil. In the book, mainly the idea of general artificial intelligence is discussed, which describes an almighty and superior computational system, surpassing human capabilities.
As every technological progress, the evolution of AI raises questions about its usage and power but also the moral and ethical implications it brings along. However, in the case of AI, those discourses need to be much more fundamental and far-reaching than with most of the technology before. The book provides a great overview of the significances and ramifications of AI and urges the reader to participate in the conversation about what “ethical use of artificial intelligence” can mean.
What I feel is missing in the book though, is the critical analysis of the short-term development of AI – between its current state of self-driving cars, recommendation engines and computer vision and the future scenarios of omnipotent system, capable of consciousness and responsibility.
Artificial intelligence bears the potential to become both, blessing or curse. It depends on us, how we want to shape its development, regulations and policies around it. But also, how responsibilities are shared and allocated and how it might contribute to humanity's most pressing existential threats like climate change and beyond.
Great general intro but too broad and example-heavy for anyone with basically any interest in AI or AI ethics. Still, lots of leads to follow for more in-depth reading.
Buenísimo. Toca muchos temas interesantes y sobre todo de forma realista, sin ser vendehumos ni catastrofista, que es difícil. Me ha gustado mucho el autor.
Es cierto que el título del libro aboca a una mala publicidad de su contenido. No se trata de un tratado, sino más bien de una introducción. Trata superficialmente los principales temas de ética de la inteligencia artificial y, en ese sentido, es una muy buena obra para constituir una primera aproximación. A mí me ha ayudado también a entender conceptos éticos que son muy relevantes en la escena internacional de aplicación de ética de la IA, pero evidentemente, no se trata de la mejor aproximación.
01. Mirror, Mirror, on the Wall • The AI Hype and Fears: Mirror, Mirror, on the Wall, Who Is the Smartest of Us All? • The Real and Pervasive Impact of AI • The Need to Discuss Ethical and Societal Problems • This Book • • AI ethics is about technological change and its impact on individual lives, but also about transformations in society and in the economy.
02. Superintelligence, Monsters, and the AI Apocalypse • Superintelligence and Transhumanism • Frankenstein’s New Monster • • In Mary Shelley’s Frankenstein—which has the telling subtitle The Modern Prometheus—the creation of intelligent life from lifeless matter becomes a modern scientific project. • Transcendence and the AI Apocalypse • • In contrast to what many people think, religion and technology have always been connected in the history of Western culture. • How to Go beyond Competition Narratives and beyond the Hype • • While typically transhumanists have nothing to do with such religious cults and practices, clearly the idea of a technological singularity bears some resemblance to apocalyptic, eschatological, and doomsday narratives.
03. All about the Human • Is General AI Possible? Are There Fundamental Differences between Humans and Machines? • • There is a history of criticism and skepticism about the possibility of human-like AI. • • We are meaning-making, conscious, embodied, and living beings whose nature, mind, and knowledge cannot be explained away by comparisons to machines. • Modernity, (Post)humanism, and Postphenomenology • • Backed up by posthumanism, AI can free itself of the burden to imitate or rebuild the human and can explore different, nonhuman kinds of being, intelligence, creativity, and so on.
04. Just Machines? • Questioning the Moral Status of AI: Moral Agency and Moral Patiency • • Is an AI “just a machine”? Should we treat it differently than, say, a toaster or a washing machine? • Moral Agency • Moral Patiency • • Some argue that “mistreating” an AI is wrong not because any harm is done to the AI, but because our moral character is damaged if we do so. • Toward More Practical Ethical Issues
05. The Technology • What Is Artificial Intelligence? • Different Approaches and Subfields • Applications and Impact • • Who will have access to the technology and be able to reap its benefits? Who will be able to empower themselves by using AI? Who will be excluded from these rewards? • • We should not forget the AI that already powers social media platforms, search engines, and other media and technologies that have become part of our everyday lives. AI is all over the place.
06. Don’t Forget the Data (Science) • Machine Learning • Data Science • • We all produce data by means of our digital activities, for example when we use social media or when we buy products online. • Applications • • Statistics used to be seen as a not very sexy field. Today, as part of data science and in the form of AI working with big data, it is hot. It is the new magic.
07. Privacy and the Other Usual Suspects • Privacy and Data Protection • Manipulation, Exploitation, and Vulnerable Users • • AI may lead to new forms of manipulation, surveillance, and totalitarianism, not necessarily in the form of authoritarian politics but in a more hidden and highly effective way. • Fake News, the Danger of Totalitarianism, and the Impact on Personal Relationships • Safety and Security • • In a networked world, every electronic device or software can be hacked, invaded, and manipulated by people with malicious intentions.
08. A-responsible Machines and Unexplainable Decisions • How Can and Should We Attribute Moral Responsibility? • • If AI is given more agency and takes over what humans used to do, how do we then attribute moral responsibility? • Transparency and Explainability
09. Bias and the Meaning of Life • Bias • • While problems of bias and discrimination have always been present in society, the worry is that AI may perpetuate these problems and enlarge their impact. • • Should justice be blind and impartial—or does justice mean creating an advantage for those who are already disadvantaged? • The Future of Work and the Meaning of Life • • Automation powered by AI is predicted to radically transform our economies and societies, raising questions about not only the future and meaning of work but also the future and meaning of human life.
10. Policy Proposals • What Needs to Be Done and Other Questions Policymakers Have to Answer • Ethical Principles and Justifications • • The widely shared intuition that there is an urgency and importance in dealing with the ethical and societal challenges raised by AI has led to an avalanche of initiatives and policy documents. • • In spite of cultural differences, it turns out that AI ethics policies are remarkably similar. • Technological Solutions and the Question of Methods and Operationalization • • Ideas such as ethics by design or value-sensitive design can help to create AI in a way that leads to more accountability, responsibility, and transparency.
11. Challenges for Policymakers • Proactive Ethics: Responsible Innovation and Embedding Values in Design • Practice Oriented and Bottom Up: How Can We Translate These to Practice? • • Responsible innovation is not only about embedding ethics in design, but also requires taking into account the opinions and interests of various stakeholders. • Toward a Positive Ethics • • AI ethics is not necessarily about banning things; we also need a positive ethics: to develop a vision of the good life and the good society. • Interdisciplinarity and Transdisciplinarity • The Risk of an AI Winter and the Danger of the Mindless Use of AI
12. It’s the Climate, Stupid! On Priorities, the Anthropocene, and Elon Musk’s Car in Space • Should AI Ethics Be Human-Centric? • Getting Our Priorities Right • • A human-centric approach is at least nonobvious, if not problematic, in light of philosophical discussions about the environment and other living beings. • • While people in one part of the world struggle to gain access to fresh water, people in another part of the world worry about their privacy on the internet. • AI, Climate Change, and the Anthropocene • • “Why worry about AI if the urgent problem is climate change and the future of the planet is at stake?” • The New Space Craze and the Platonic Temptation • Return to Earth: Toward Sustainable AI • Wanted: Intelligence and Wisdom
Great book around the ethics of AI. It's fairly straightforward if you are familiar with philosophical thought, but it is by no means complex if you are not. The explanation of AI is also relatively simple and avoids going into extreme depth. The first half (or so) of the book focuses AI as a technology whilst the second half delves deeper into the challenges that AI faces. I would say that it is not the most detailed book but it is an excellent starter/intro to anyone interested in some of the philosophical arguments around AI (and tech in general). I enjoyed a lot of the discussion and found some sections to be particularly thought provoking. It's also extremely current (2020 publish) which helps with modern understanding.
Up until the very end, I couldn't understand who is the target audience of the book. As someone more familiar with AI and less with ethics, I enjoyed the earlier chapters. However, I found the ML/DS chapters rather repetitive for a person even remotely engaged with AI. At certain points in the book, I felt like I am skimming an unnecessarily long literature review.
Nevertheless, this book might be a good start for basic introduction to AI ethics for someone totally new to the field.
"أيّتُها المِرآةُ على الحائط: مَنِ الأذكى في العالَم؟" ص١٣.
وقتها -أوّل ما بدأت أقرؤه- كانت شهيّتي مَفتوحة لسوالف الذكاء الاصطِناعيّ، ولمّا قريت أوّل كم صفحة قلت بس، هذا لازم يدخل في هدفي القِرائيّ.
🤖 الشرارة اللي ولّعت العمل ( الفِكرة ) :
خويّنا مارك ذا متخصّص بتخصُّص اسمه طويل ومعقّد، زبدته إنّه يدرس فلسفة التكنولوجيا، وبالضبط الأخلاقيّات حقّتها أو شي كذا؛ يعني كُن مُستعِدّ لوجبة طازجة لأنّك بتاكُل الخُبز من يد خبّازه.
تخصُّصه بيحكي لك عن فِكرة الكتاب؛ الرجّال قاعد يناقشنا بشكل فلسفيّ عن "أخلاقيّات الذكاء الاصطِناعيّ"، أفكار مثل مين المَسؤول لمّا يسوّي هالذكاء شي غير أخلاقيّ ؟ كيف مُمكِن الذكاء ذا يساهم في الفجوة الطبقيّة بين الأغنياء والناس الأبسَط ؟
🤖 ألذّ ما في الكِتاب ( نقاط القُوّة ) :
🦾 فِكرة مُمَيَّزة : ما ينفع أتكلّم عن ألذّ ما فيه دون ما أجيب سيرة فِكرته نفسها، اللي هي المَزْج بين الفلسفة والتكنولوجيا، الفِكرة غريبة وهامّة، ووجود تخصُّص اسمه فلسفة التكنولوجيا أغرَب ! -طبعًا غرابة إيجابيّة-. التخصُّص ذا لمّا قريت عنّه "اعتراني الإبهار"، شي مُذهِل !
المهمّ، الكاتِب مَشكورًا خَصَّص طرحه أكثر في فلسفة الأخلاقيّات وفي تكنولوجيا الذكاء الاصطِناعيّ.
وهالنُقطة ما تلاقي حولها -على الأقلّ حاليًّا- "جِدّية في التَعاطي والطَرْح"، مُمكِن نسمّيه نوع من انعدام المَسؤوليّة حول عواقِب تَجاهُل أمر مثل هذا.
الحاجة ذي مو أوّل مرّة تصير؛ يعني عندك عشرات ومِئات المُخترَعات اللي نُحِّيَ فيها الضمير جانِبًا دون تفكير في عواقب اختراعها واستخدامها؛ مُجَرَّد رغبة في ملء الجَيب؛ لحدّ ما تسبّب لنا هالشي بمُشكِلات زي مَشاكل البيئة .. على قول الكاتب فات الأوان لتداركها، كُلّ اللي نقدر نسوّيه الآن هو "تخفيفها".
وإحنا ما نبغى هالسيناريو المَأساوي يتكرّر أو على الأقلّ ما نبغى نزيد من سوء الوضع.
وحدة من الأمثِلة على اللي طرحها الكتاب هي الفَجوة اللي مُمكِن تكبر وتتضخّم بين الأغنِياء والفقراء بسببه ( فِكرة مُتَفشيّة في أفلام الخيال العِلميّ )، أو كيف نقدر نحاسبه قانونيًّا لو هالذكاء أخطأ بحقّ أحد؟ طيّب نحاسبه هو ولّا الشرِكة المَسؤولة عنّه؟ المُشكِلة إنّنا صعب جِدًّا نحاسب واحد فقط من هالطرفين ! كُلّهم مَسؤولين وكُلّهم أيضًا غير مَسؤولين.
🦾 مُستوى مُناقَشة جيِّد مُجمَلًا : مُناقَشة أبو كوكلبيرج كانت حلوة وصراحة استمتعت فيها، تعرف جو الفلسفة ذا اللي يخلّيك تاخُذ وضعيّة أفلاطون وأنت تدخّن الغَليون على أريكتك العتيقة بينما تُراقِب المارّة "السطحيّين" من نافذتك وتطرَح سُؤال وُجوديّ عميق : لماذا نحنُ هُنا؟
*مو لهذا الحَدّ طبعًا؛ الكتاب مو بذاك العُمق.
الزبدة إي، مُستوى طرحه جيِّد مُجمَلًا لا أقول مُمتاز، وتقدر تقول إنّه "وَضَعَ أقدامنا على أوّل خُطوة في الطريق" عشان نبحث ونتعمّق أكثر؛ في مُحاولة لإيجاد حُلول حقيقيّة للمُعضِلات الأخلاقيّة إن صَحَّ الوَصف.
🦾 اقتِباسات داعيَة للتأمُّل :
١ . لمّا تكلّم عن مؤلِّفة شخصيّة فرانكشتاين : "إذ يَبدو أنَّ الرِسالةَ الرَئيسيّة الّتي تَحرِص على تَوصيلها هيَ أنَّ العُلماء يَنبغي أن يَتَحمّلوا مَسؤوليّةَ اختِراعاتِهم. يَهرُبُ الوَحش، ولكنّهُ يَفعل ذلك لأنَّ صانِعَهُ يَرفُضُه. يَجِبُ أن نَتَذكَّرَ هذا الدرسَ فيما يَتَعلّق بأخلاقِيّات الذَكاء الاصطناعيّ" ص٢٧.
٢ . في كلامه عن الجانِب الأخلاقيّ في تعامُلِنا مع الذَكاء : "يُمكِنُنا أن نقول إنّنا لا نَدينُ بشيءٍ إلى الآلات المَدعومة بالذَكاءِ الاصطناعيّ، ولكنَّنا معَ ذلِكَ يَنبغي لنا عدم ركْل أو «تَعذيب» آلة مُزوَّدة بالذَكاءِ الاصطِناعيّ؛ لأنَّ ذلِكَ يَجعلُنا غَير رُحَماء تجاهَ البشَر" "«إساءة مُعامَلة» الذَكاء الاصطِناعيّ خطأ؛ لَيسَ لأنَّ ثمّة ضرَرًا سيَلحق بالذَكاءِ الاصطِناعيّ، ولكن لأنَّ طابعنا الأخلاقيّ سيَتَأذّى إذا ما فعلنا ذلِك" ص٤٧.
٣ . "إذا عامَلْنا قِطَّتنا بلُطف، فهذا لَيسَ لأنّنا نَنخرِط في تَفكيرٍ أخلاقيّ بشأنِ قِطّتنا، ولكن لأنَّ لدَينا بالفِعل نَوعًا منَ العلاقةِ الاجتِماعيّةِ معَها... باستِخدام مِثل هذا النهْج العلاقاتي والنقدي وغَير المُتزمِّت، يُمكِنُنا القَول إنَّ البَشَر سَوفَ يَمنحونَ الآلات المُزوَّدة بالذَكاءِ الاصطِناعيّ مَكانةً أخلاقِيّةً بِناءً على كَيفيّةِ تَضمينِها في حياتِنا الاجتِماعيّة وفي لُغتِنا وفي ثقافتِنا البَشَريّة" ص٤٨.
٤ . "كما أنَّ التركيزَ المُفرِطَ على على الذكاء، بوصفِهِ سِمةً رئيسيّةً للإنسانيّة، وهَدَفًا نِهائيًّا وَحِيدًا، هوَ أيضًا أمرٌ مَشكوكٌ فيه" ص٢٢.
🤖 مُشكلتي مع الكِتاب ( نقاط الضعف ) :
طيّب، في كم نُقطة زعّلني فيها الكتاب وكان مُمكِن يكون أفضل من كذا، المُثير إنّها تدور حول بعض النقاط اللي أثنيت عليها.
✖️ دسامة مُتواضِعة في المُناقَشة : نعم قُلت إنّه جيِّد بالإجمال من جانِب نقاشاته؛ لأنّه لفت نظري، لكِن كمان ما كان عُمق المُناقَشة المَرجو ويمكن حتّى ما أعطاها حقّها في التناول، صراحة كُنت أنتظر شي أدسَم.
✖️ إطالة في مَواضِع وتَقصير في مَواضِع : بعض المَفاهيم طوَّل الكاتِب وهو يتكلّم عنّها، مع إنّها المَفروض ما تاخُذ إلّا جُزء بسيط من الكتاب لأنّها مو الفِكرة الأساسيّة اللي نتكلّم عنّها، مثلًا حديثه عن الذكاء الاصطِناعيّ بحدّ ذاته والتعريف فيه؛ حسّيت ما لها لزمة بالطول هذا بكتاب نفس ذا. في حين أُمور في صلب المَوضوع مثل مَفهوم "الأخلاقيّات" كان يعدّي عليها بشكل مُقَصِّر في التناوُل.
✖️ المَحدوديّة : كمان كان مَحدود بطرحه عُمومًا بكُلّ شي، ما تحسّه دخل معاك في أشياء متنوّعة، لأ، كان مَحصور في جوانِب مُعيَّنة ما طلع عنّها، بمَعنى آخَر ما كان مُلِمّ.
✖️ الترجَمة : صراحة مُمتنّة جِدًّا لترجَمة هالعمل، ولا أذمّها، بس كان مُمكِن تكون أبسط وأكثر مُباشَرة ووُضوح.
هذي النقاط عطتني شُعور بإن الكتاب ناقِص وغير واضِح وحتّى مُمكِن يعطيك شُعور بالفَوضى، مو لأنّه مو مرتّب، إنّما لأن في قِطَع ناقصة وقطع مو بمكانها وبعضها قطع مَقصوصة أو مُهمَّشة؛ هذا يخلّي اللّوحة "مُربِكة".
🤖 وش طلعت فيه بعدما قريته ؟
ببساطة، هَدَف الكتاب تحقّق معي .. فِعلًا هو خلّاني أوقّف وأفكّر في العواقب الأخلاقيّة للذكاء بجدّية أكبر وأشوفها بنظرة غير؛ يعني صراحة ما جات على بالي إن فيه مَشاكِل أخلاقيّة بهذي الأهمّية، كُنت ماخذتها بسطحيّة إنّنا ما نخلّيه يقول كلام بذيء مثلًا؛ وتوّي الآن بدأت أشوف المَوضوع بهالبُعد الأعمَق.
This is a short book by a Belgian philosopher who teaches at the University of Vienna about ethical issues associated with Artificial Intelligence. This is part of a series published by MIT press that appears to focus on providing a general introduction to some phenomenally complicated areas, such as a book you might be assigned as a weekly reading as part of a larger survey course in college or grad school, such as in some emergent “hot” technical area. So far, so good. I am all for nice introductions to complex areas, especially when there are lots of suggestions for further reading -as there are in this book.
The structural intuition for this volume is clear early on. What is artificial intelligence? Then once I can get my hands around what AI is, how do I think about using AI ethically? Regarding what AI is, good luck with that! Something like AI has been announced, propounded, or otherwise peddled for a long time, with a notably paucity of results until the most recent wave of activity arrived, with ChatGPT and its buddies. Now many Google search results begin with an “AI” intro, while emails and minor routines reports will likely never be the same. There are also increasing lunchtime workshops by professors about how to handle AI in the assigning of paper topics to students - and how to handle citation and referencing issues in assignments. I think to make progress, I will need to invest more time in which of these tools are more effective and how to get the best use out of DeepSeek. Professor Coeckelbergh does a good job, but there are limits to what is possible in a book like this.
Now regarding the Ethics of Ai, I do not envy the author’s task. I suspect that most people do not read books about ethics and that even for common topical areas, such as business ethics, the.material is quite focus but often the subject of an entire class. What is the best way to hone in on the Ethics of AI when AI itself is a bit hazy? The author gets five or six references to Aristotle in but generally has to marshal a variety of references to AI-related issues that might suggest ethical dilemmas. That is not bad, again in a short volume. Potential areas of interest that have received attention among commentators multiply towards the end of the book — most of these highly polysyllabic in nature but lacking much explanation. Thankfully, the author provides a glossary.
Overall, this was a quick read and was OK as a short survey.
Devo dizer inicialmente que a leitura desse livro me faz menos pessimista ao uso das IA. Mais, ele me faz retomar questões que são essenciais, talvez mais do que nunca, visto que cada vez mais nos deparamos com catástrofes sociais e ambientais. A saber, a loucura da razão econômica.
O livro traça um largo panorama, mais filosófico que tecnológico - e isso é muito bom, na verdade, precisamos de mais filósofos debatendo questões tecnológicas, assim como precisamos de mais debates filosóficos dentro do âmbito tecnocientífico - sobre que condutas éticas devemos ter diante do advento dessas super inteligências.
Ele trata desde questões futuristas apocalípticas, transumanas e até pós-humanas, como o possível surgimento da inteligência geral, ou o evento da singularidade, a questões mais pragmáticas de nosso tempo, como o acesso desigual a esse tipo de tecnologia e riscos ambientais provocados pelo excessivo gasto energético. Como disse no início, me preocupe menos com as possibilidades fantásticas de um mundo como em Matrix que com a possibilidade mais concreta de um mundo cada vez mais injusto.
Isso porque, na minha percepção, me parece que o advento da IA não traz consequências diferentes que qualquer outra tecnologia já criada pela humanidade. Queremos ter o controle sobre algo que no fim é capturado pelos interesses hegemônicos de uma determinada sociedade e as formas que essas tecnologias são atravessadas pelos valores que imperam. Aqui, a produção de valor econômico. A questão radical a ser desvelada.
Ou seja, como podemos ter uma conduta ética de responsabilidade, sustentabilidade ambiental, solidariedade e bondade com o uso dessa nova tecnologia, se somos o tempo inteiro mobilizados pela locomotiva irrefreável do mercado e seus interesses monopolistas? Uma vez que uma obra é lançada ao mundo ela é imediatamente atravessada pelas razões que fazem a roda econômica girar. E sabemos que no nosso mundo o que importa é a circulação de dinheiro, mercadorias e produção de mais valor.
Então, como ter uma conduta diferente se não somos capazes de lidar antes de tudo com a ética do capital?
Talvez esse seja o único defeito desse livro, no caso, não adentrar mais profundamente nessa questão. Ele acaba por traçar diversos caminhos que mais confundem que esclarecem. E mesmo reconhecendo que são questões, não sinto que levam a questão da IA a seu ponto radical - ele apenas toca sutilmente nesse quesito - o uso desigual por quem detém os meios de produção de vida, a burguesia digital.
كتاب اخلاقيات الذكاء الاصطناعي هو كتاب من تأليف مارك كوكلبيرج: أستاذ فلسفة الوسائط والتكنولوجيا في قسم الفلسفة بجامعة فيينا، ورئيس جمعية الفلسفة والتكنولوجيا سابقًا.
وفي ما يلي محتويات الكتاب:
1. الفصل الأول: يستعرض هذا الفصل التطورات الحديثة في الذكاء الاصطناعي، مع التركيز على الإنجازات البارزة مثل برنامج "ألفا جو" الذي تفوق على أفضل لاعبي لعبة "جو"، مما يبرز قدرة التعلم الآلي على معالجة المشكلات المعقدة والتفوق على الأداء البشري في بعض المجالات.
2. الفصل الثاني: يناقش هذا الفصل تطبيقات الذكاء الاصطناعي في مجالات التنبؤ والتحليل، مع التركيز على كيفية استخدامه في التنبؤ بالأمراض وتغيرات المناخ، مما يسهم في تحسين التخطيط واتخاذ القرارات في هذه المجالات الحيوية.
3. الفصل الثالث: يستكشف هذا الفصل المخاطر المحتملة المرتبطة بالذكاء الاصطناعي، مثل التحيز في الخوارزميات وانتهاك الخصوصية، ويؤكد على أهمية تطوير سياسات وأطر أخلاقية لضمان استخدام هذه التقنيات بشكل مسؤول وآمن.
4. الفصل الرابع: يركز هذا الفصل على تأثير الذكاء الاصطناعي في سوق العمل، حيث يتناول التحديات والفرص الناتجة عن الأتمتة والتغيرات في متطلبات المهارات، ويحث على ضرورة التأقلم مع هذه التحولات من خلال التعليم والتدريب المستمر.
5. الفصل الخامس: يستعرض هذا الفصل دور الذكاء الاصطناعي في تحسين الرعاية الصحية، من خلال تطوير أدوات تشخيصية وعلاجية متقدمة، مما يسهم في تقديم خدمات صحية أكثر دقة وفعالية للمرضى.
6. الفصل السادس: يناقش هذا الفصل استخدام الذكاء الاصطناعي في التعليم، وكيف يمكن للتقنيات الحديثة تحسين تجربة التعلم وتوفير فرص تعليمية مخصصة تلبي احتياجات المتعلمين المختلفة.
7. الفصل السابع: يستكشف هذا الفصل تأثير الذكاء الاصطناعي على الفنون والإبداع، وكيف يمكن للتقنيات الحديثة أن تسهم في إنتاج أعمال فنية جديدة وفتح آفاق إبداعية غير مسبوقة.
8. الفصل الثامن: يركز هذا الفصل على التحديات القانونية المرتبطة بالذكاء الاصطناعي، مثل مسائل المسؤولية القانونية وحقوق الملكية الفكرية، ويؤكد على ضرورة تحديث الأطر القانونية لمواكبة التطورات التكنولوجية.
9. الفصل التاسع: يناقش هذا الفصل تأثير الذكاء الاصطناعي على العلاقات الاجتماعية والتواصل، وكيف يمكن للتقنيات الحديثة أن تؤثر على التفاعلات البشرية وتغير طبيعة العلاقات الاجتماعية.
10. الفصل العاشر: يستعرض هذا الفصل استخدام الذكاء الاصطناعي في المجالات العسكرية والأمنية، مع التركيز على التحديات الأخلاقية والمخاطر المحتملة المرتبطة بتطبيق هذه التقنيات في السياقات القتالية.
11. الفصل الحادي عشر: يناقش هذا الفصل دور الذكاء الاصطناعي في الاقتصاد العالمي، وكيف يمكن للتقنيات الحديثة أن تؤثر على النمو الاقتصادي وتوزيع الثروة، مع التأكيد على أهمية السياسات التي تضمن توزيعًا عادلًا للفوائد.
12. الفصل الثاني عشر: يركز هذا الفصل على التحديات البيئية المرتبطة بالذكاء الاصطناعي، وكيف يمكن للتقنيات الحديثة أن تسهم في مواجهة قضايا مثل تغير المناخ، مع التأكيد على ضرورة مراعاة الاستدامة في تطوير واستخدام هذه التقنيات. وهذا آخر فصل من الكتاب