Компютърна академия IT STEP! Учим се от 1999 година. Висококачествено компютърно образование за възрастни и деца. Подготвяме програмисти, дизайнери и системни администратори, които не могат да бъдат заменени от изкуствен интелект. За тази цел, освен задълбочени знания, ние се научаваме да разбираме задачи, да мислим за готови проекти и да работим в екип.

Your browser is out of date!

You are using an outdated browser Internet Explorer. This version of the browser does not support many modern technologies, that's why many pages of the website are not displayed correctly, and may not work some of functions . We recommend viewing the website using the latest versions of the browsers Google Chrome, Safari, Mozilla Firefox, Opera, Microsoft Edge

Ние използваме бисквитки (“cookies”), за да подобрим потребителското изживяване и да Ви показваме съдържание, което би могло да Ви заинтересува. Използвайки този сайт Вие се съгласявате с правилата за използване на itstep.bg. Ако изберете «приемам», ще дадете Вашето съгласие да събираме, обработваме и съхраняваме Вашите лични данни.

Научи повече

Нови правила ще пазят безопасността, сигурността и гражданските свободи от изкуствения интелект

След месеци работа бяха предложени набор от насоки, предназначени да защитят човечеството от редица заплахи, породени от изкуствения интелект.
Група за защита на личните данни иска правителството на САЩ да приеме тези насоки.

В какво се състоят насоките?


Комплектът от 12 универсални насоки, разкрити на среща в Брюксел миналата седмица, има за цел да "информира и подобри дизайна и използването на ИИ", увеличавайки максимално ползите, като същевременно намали рисковете. Machine learning е дългогодишен общ термин за машинно вземане на решения, но тъй като технологията става по-добра и е по-широко приета, резултатите, базирани на ИИ, оказват по-голямо въздействие върху човешкия живот – от получаване на кредити, заетост и дори до наказателни присъди.
Но често тези решения се правят с алтернативни и затворени алгоритми, което прави почти невъзможно да се знае дали решенията са справедливи или не.
Тези насоки, съгласно Информационния център за електронна поверителност (EPIC), са предназначени да бъдат поместени в ИИ, за да се гарантира защитата на правата на човека. Това включва: 

  • право на познаване на факторите, логиката и техниките, използвани за резултата от решението; 
  • задължение за справедливост, което премахва дискриминационното вземане на решения; 
  • задължение за осигуряване на системи срещу заплахи за киберсигурността. 

Сега EPIC иска да въведе тези принципи, където се разработват много от технологиите за ИИ от следващо поколение.
В писмо до Националната научна фондация EPIC призова правителствената агенция да приеме универсалните насоки, месеци след като тя отвори вратите си за предложения за национална политика за ИП.
"Чрез инвестиране в системи за ИИ, които се стремят да изпълнят принципите, NSF може да насърчи разработването на системи, които са точни, прозрачни и отговорни още от самото начало", пише Марк Ротенберг, президент и изпълнителен директор на EPIC. 
EPIC заяви, че 12-те принципа се вписват добре в рамките на седемте стратегии, които вече са установени от САЩ досега, за да се улесни приемането им.
Повече от 200 експерти и 50 организации са се присъединили към насоките – включително Федерацията на американските учени и Проектът за отчетност на правителството.
Вероятно ще отнеме месеци преди правителството да реши какви ще бъдат следващите стъпки, ако има такива. 

Децата и технологиите – една различна гледна точка
Смарт очила с невиждани досега функции

Искаш ли да ти се обадим?

Този сайт използва Cookies

Политика за поверителност и правна информация