Along with many benefits, this technology comes with risks that we need to take seriously. But none of the above scenarios seem to provide a specific roadmap for extinction, claims an artificial intelligence researcher from the UK
מאת נלו כריסטיאניני' פרופסור לבינה מלאכותית, אוניברסיטת באת'.
נלו כריסטיאניני הוא מחבר הספר "קיצור הדרך: מדוע מכונות אינטליגנטיות לא חושבות כמונו", שפורסם על ידי CRC Press, 2023.
This week a group of Well-known and reputable AI researchers On a 22-word statement (in English - Hebrew 18 A.B.):
"הפחתת סכנת ההכחדה מבינה מלאכותית צריכה להיות בעדיפות עולמית לצד סיכונים אחרים בקנה מידה חברתי כגון מגפות ומלחמה גרעינית."
As a professor of artificial intelligence, I am also in favor of reducing any risk, and am willing to work for it personally. But any statement worded in this way is bound to create panic, so its authors should probably be more specific and clarify their concerns.
כפי שהוגדר באנציקלופדיה בריטניקה, הכחדה היא "גסיסה או השמדה של מין". פגשתי רבים מהחותמים על ההצהרה, שהם מהמדענים המכובדים והמוצקים ביותר בתחום – וכוונתם בהחלט טובה. עם זאת, הם לא סיפקו לנו תרחיש מוחשי כיצד אירוע קיצוני כזה עלול להתרחש."
זו לא הפעם הראשונה. ב-22 במרץ השנה, עצומה שנחתמה על ידי קבוצה אחרת של יזמים וחוקרים ביקשה להשהות את פריסת הבינה המלאכותית למשך שישה חודשים. במכתב שפורסם באתר האינטרנט של המכון לעתיד החיים, הם פירטו את נימוקיהם: "סיכונים עמוקים לחברה ולאנושות, כפי שעולה ממחקר מקיף ומוכרים על ידי מעבדות AI מובילות" – וצירפו לבקשתם רשימת שאלות רטוריות:
Should we let the machines flood our information channels with propaganda and lies? Should we automate all jobs? Should we develop non-human minds that may eventually outnumber us, trick us, make us obsolete, and replace us? Should we risk losing control of our civilization?
Generic sense of alarm
בהחלט נכון שלצד יתרונות רבים, הטכנולוגיה הזו מגיעה עם סיכונים שאנחנו צריכים לקחת ברצינות. אבל נראה שאף אחד מהתרחישים הנ"ל אינו מספק מתווה מסלול ספציפי להכחדה. משמעות הדבר היא שאנו נותרים עם תחושה כללית של אזעקה, ללא כל פעולה אפשרית שנוכל לנקוט.
The AI Safety Center's website, where the latest statement appeared, describes in a separate section eight broad categories of risk. These include the weaponization of AI, its use to manipulate the news system, the possibility of humans eventually being able to govern themselves, aiding oppressive regimes, and so on.
Except for arming, it is not clear how the other risks - still terrible - could lead to the extinction of our species, and the burden of answering this is on those who claim it.
AI weaponry is a real concern, of course, but what is meant by that also needs to be clarified. The Center for AI Safety's main concern appears to be the use of AI systems to design chemical weapons. This should be prevented at all costs - but chemical weapons are already prohibited. Extinction is a very specific event that requires very specific explanations.
ב-16 במאי, בשימוע שלו בסנאט התבקש סם אלטמן, מנכ"ל OpenAI – שפיתחה את הצ'אטבוט ChatGPT AI – התבקש פעמיים לפרט את התרחיש הגרוע ביותר שלו. לבסוף השיב:
"הפחד הכי גדול שלי הוא שאנחנו – התחום, הטכנולוגיה, התעשייה – גורמים נזק משמעותי לעולם… זו הסיבה שהקמנו את החברה [כדי למנוע את העתיד הזה]… אני חושב שאם הטכנולוגיה הזו משתבשת, היא יכולה להשתבש."
But while I agree that we should be as careful as possible, and I've been saying this publicly for the past ten years, it's important to maintain proportion - especially when discussing the extinction of a species of eight billion individuals.
Artificial intelligence may create social problems that need to be prevented. As scientists, it is our duty to understand them and then do our best to solve them. But the first step is to name them and describe them - and be specific.
Comments
You don't need a terrorist, they are already doing it now when many governments are ignoring the climate crisis
A simple scenario: a single terrorist who hates humanity or sees it as a threat to the earth, develops, using the accumulated knowledge in a language model, a biological weapon for the total destruction of humanity and returning the globe to a pre-human era.
Even today this is a possible scenario, but not for an individual. Because collaborations are required to get all the knowledge for such a project.
But given an omniscient LLM modem, even a single person would be able to do it.
Let's say an 18-year-old boy would do this instead of opening fire and spraying his school with bullets.
Evolution has proven that wisdom is not exactly a trait that survives, so it seems to me that the amount of human stupidity will allow us to survive forever
I don't understand the article, because there is already a lively discussion (in English) that presents the concrete dangers, including extreme dangers. For example, Eliezer Yodkovski, who presents detailed and scholarly explanations. These discussions will continue to expand in the coming years.
The artificial intelligence systems have enormous advantages as well as risks,
Another danger is that due to excessive hysteria, the development of artificial intelligence systems will be inhibited and the result will be a weakening of the human ability to help and solve very difficult problems that exist today,
Despite the enormous human development in medicine, we are still deep in the Middle Ages in many areas
"טיול" קטן דרך המחלקות השונות בבתי החולים כגון האונקולוגיות ולא רק , מפגישה אותנו עם קצה גבול הידע האנושי והמשמעויות של זה שהם סבל כאב ואובדן אנושי ברמות הגבוהות ביותר, קידום פתרונות אפילו בעשור יציל כל כך הרבה אנשים אבות אמהות ילדים יש שם כאב עצום יתמות שכול כל כך הרבה עולמות שבורים ואת זה צריך לפתור וכמה שיותר מהר, לא רחוק ממני יש אמא שאני מכיר שהיא ברגעיה האחרונים וילדיה נפרדים ממנה על זה מדובר, אחנו רוצים להעלים מהעולם את הסבל הזה,
If it is clear that there are both risks of various types and benefits, this could fill a book,
When potential for horror scenarios are more in the long run
Although more perhaps it will be degeneration scenarios where we find ourselves drawn only to pleasure a type of bread and amusement
with non-human partners whose appearance and comfort are tailored to each one specifically
The fact that artificial intelligence succeeds in permeating and serving the public proves that human color abilities are becoming weaker and lazy and therefore humanity wants to rely on artificial intelligence.
Artists certainly suffer from this the most because in his opinion the intellectual capacity of man comes from the depth of his feelings and his perception of the human universe mainly, and not the sum of how genius man is to this day, which mainly produces clichés.
At this rate, in a few more years artisans will be considered witches or wizards...
One only has to hope that there is no dictatorship hiding behind human reason
The title of the article promises an answer (or at least a discussion/hypothesis) to the question "How can artificial intelligence cause extinction?". Towards the end of the article there is the passage
"On May 16, at his Senate hearing, Sam Altman, CEO of OpenAI — which developed the ChatGPT AI chatbot — was asked twice to detail his worst-case scenario. Finally he replied:
"My biggest fear is that we - the field, the technology, the industry - are causing significant damage to the world... This is why we started the company [to prevent this future]... I think if this technology goes wrong, it can go wrong."
The author fell into a well-known trap that there is no connection between the title (even given by the author) and the content of the article.