The European Union and the United States are promoting moves to address ethics in artificial intelligence

However, there are major differences between the two approaches in many aspects. Among other things, in the absence of mandatory prison sentences in the USA compared to the European Union, and in the large decentralization of powers in the USA compared to horizontal regulation in Europe

Ethics of artificial intelligence. Illustration: depositphotos.com
Ethics of artificial intelligence. Illustration: depositphotos.com

ארה"ב הכריזה בסוף ינואר 2023 על קידום מהלך לטיפול באתיקה בבינה מלאכותית, כחודשיים לאחר מהלך דומה של האיחוד האירופי.

The European Union's Artificial Intelligence Act (AIA), approved by the Council of the European Union on December 6 and due to be debated by the European Parliament as early as March, will regulate AI applications, products and services under a risk-based hierarchy: the higher the risk, the more severe.

If approved, the EU's AIA will be the world's first transversal regulation – across all sectors and applications – of AI.

לעומת זאת, בארה"ב אין חוק פדרלי ספציפי להסדרת השימוש בבינה מלאכותית, אך הרגולציה תסתמך במקום זאת על חוקים, תכנונים, מסגרות, תקנים ותקנות קיימים שניתן לתפור יחד כדי להנחות את השימוש האתי בבינה מלאכותית. ההנחיות הללו מכסות פעילות של ממשלות וארגונים, אך אינן מציעות הגנה לצרכנים שנעשה להם עוול כאשר נעשה שימוש בבינה מלאכותית נגדם.

In addition to the patchwork of federal actions, local and state governments are enacting laws to address AI bias in employment, such as in New York City and the entire state of California, and in insurance, as evidenced by a law in Colorado. No proposed or enacted local law carries any prison sentence. In 2016, Eric Loomis of Wisconsin was sentenced to six years in prison based, in part, on artificial intelligence software, according to a report in the New York Times. Loomis argued that his due process rights were violated because he could not test or challenge the software's algorithm.

ההנחיה הפדרלית מגיעה מהמכון הלאומי לתקנים וטכנולוגיה (NIST). המסגרת ההתנדבותית של NIST נועדה לסייע  לארגונים לנהל סיכוני בינה מלאכותית שעלולים להשפיע על אנשים, ארגונים וחברה בארה"ב. המסגרת עושה זאת על ידי שילוב שיקולי אמינות, כגון יכולת הסבר וצמצום של הטיה מזיקה, במוצרים, בשירותים ובמערכות של בינה מלאכותית.

"בטווח הקצר, מה שאנחנו רוצים לעשות זה לטפח אמון", אמרה אלהאם טבסי, Chief of Staff at the Information Technology Laboratory at NIST בראיון ל-EETIMES. "ואנחנו עושים זאת על ידי הבנה וניהול של הסיכונים של מערכות בינה מלאכותית, כך שהן יכולות לסייע בשמירה על חירויות וזכויות אזרח ולשפר את הבטיחות ובמקביל לספק וליצור הזדמנויות לחדשנות."

בטווח הארוך יותר, "אנחנו מדברים על המסגרת כמציידת צוותי בינה מלאכותית, בין אם הם בעיקר אנשים המתכננים , מפתחים או פורסים בינה מלאכותית, לחשוב על בינה מלאכותית מנקודת מבט שלוקחת בחשבון סיכונים והשפעות", אמרה ריבה שוורץ, מדענית מחקר במעבדת ה-IT של NIST.

In October 2022, the White House published the plan for an AI Bill of Rights, in which it lists five principles that will guide the ethical use of artificial intelligence:

  • Systems should be safe and efficient.
  • Algorithms and systems should not discriminate.
  • People must be protected from abusive data practices and control how their data is used.
  • Automated systems should be transparent.
  • Opting out of an artificial intelligence system in favor of human intervention should be an option.

One response

  1. ארה"ב מדרדרת את העולם כמו שהוא אל סופו.
    The path to the apocalypse is clear.
    The morons sent a spaceship into space in 77 with the address of Earth.
    As if the world is theirs, and as if they know who it will end up with.
    And of course also without thinking that he might be hostile to us.
    Hope that God will put an end to the Japanese who will succeed in destroying the world.

Leave a Reply

Email will not be published. Required fields are marked *

This site uses Akismat to prevent spam messages. Click here to learn how your response data is processed.