На картинке — формула (одна из), по которой анонимные учёные настраивали Autoblow AI, краудфандинговый проект на Indiegogo, уже набравший 623% от изначальной цели. Почему анонимные? Потому что ни одна серьёзная фирма не хотела браться за этот проект, ведь там про секс, а секс в современном обществе, как оказалось — табу!
Более подробно на эту тему вы можете прочитать по запросу «Статья про минет» на Хабре, а я, с вашего позволения, перейду от секса к его последствиям — тюрьме, конечно же, ибо что ещё может любить уголовный адвокат?
Кстати, я на самом деле, абсолютно без эпатажа и от всего сердца тюрьму люблю больше любого другого места (кроме собственной постели, конечно). Ну сами подумайте — заходишь ты внутрь, вокруг весёлые чуваки из Шабаса (тюремной охраны), шутишь шутки, болтаешь и ждёшь. У тебя забирают телефон, и ты спокойно сидишь и читаешь Санегор (наш уголовный профжурнальчик со свежими прецедентами).
Абсолютная свобода — никто не звонит, не парит, ничего не надо срочно делать, ничего не надо решать, надо просто сидеть и ждать, когда тебе приведут твоего саженца. И вообще я люблю с людьми разговаривать, когда вы уже сидите — всегда рады меня видеть, вежливые, не наглые, и уже что-то понимаете в жизни.
За последние 20 лет я процентов пять времени провёл в тюрьмах, так что в сумме вышел год. Неплохо для первого срока 😄.
Так почему я о миньете (да, я знаю об этом извращении писать это с мьягким знаком — но на мой взляд это как писать междометие «блять» через «д»)? Потому что похожие формулы используют для того, чтоб определить степень опасности саженца, когда решается вопрос о его досрочном освобождении.
В этой вашей Америке уголовная система любит компутеры. Ну там в принципе и сами люди как компутеры — очень все такие ровные и одинаковые, не зря об этом Дед Кеннедиз пели про Калифорнию. Поэтому очень легко людей подстроить под алгоритмы и дать им, алгоритмам, решать — кто опасен, а кто нет.
Тюремное управление заказало частной фирме программу, которая с помощью ИИ (то есть простыми словами — с помощью статистического анализа, это и есть на сегодняшний день весь ваш хвалёный ИИ) определяет вероятность возможного рецидива. Наверняка, кстати, такая фирма если и будет писать формулу миньета, сделает это анонимно, ведь секс — это харам!
После того, как очередной саженец остался досиживать полный срок из-за решения ЭВМ, его адвокаты решили посмотреть, на каких, собственно, основаниях срезали их мальчика. Ответ от тюремщиков был такой — мы бы с радостью показали вам алгоритм, но он принадлежит частной фирме, они нам его дают SaaSно, поэтому мы никак не можем их заставить приоткрыть коммерческую тайну.
Адвокаты в некотором ахуе — то есть как это так, какая-то чорная коробочка решает вопрос о свободе человека, а мы даже не знаем, на каком основании она приходит к этому выводу!
Когда всё это делали вручную, по-старинке, комиссия по УДО получала решение комиссии по оценке опасности — и это решение было обоснованным, и эти обоснования можно было оспорить. Как оспорить «ваш саженец заедет назад в течение трёх лет с вероятностью 44.532%» — не знает никто. Теоретически мы можем знать, какие параметры берутся в расчёт — но мы не знаем, как это работает внутри.
Например, допустим, что процент рецидивизма у белых в два раза выше, чем у чорных. Но при решении вопроса об опасности откидного зека нельзя исходить из национальности, ибо расизм даже ещё более харам, чем секс. Зато у компутера есть данные об адресе (доотсидочном) нашего гаврика, соответственно фактически о цвете кожи.
А мы не знаем, что там внутрях у программы. И код исходников суд не дал — ибо коммерческая тайна, и тут суд не властен. И получается, что коробочка решает что-то, а как — мы не знаем и знать не должны.
Интересно будет, когда такие же программы будут решать вопросы о вынесении наказания, например. Что-то сложит, посчитает — и вуаля, сидите 100500 лет, потому что компьютер так посчитал, а КАК ИМЕННО он считал, мы вам не скажем, ибо это коммерческая тайна.
Ну и, конечно же, искусственный интеллект должен немедленно справиться с очень важной задачей — цензурой в интернете. И если китайцы цензурят критику власти и Тинь… Тань… Блять, язык сломишь — Тяньаньмэнь, русские — наркотики и геев, то американцы будут цензурить сексизм, расизм, трансфобию, исламофобию и так далее.
И вы не узнаете, по какой причине вас внезапно заблокировали цукербрины — просто в одно мгновение перестанет рабоатть андроед-телефон, телефонная книжка, все гуглевские сервисы и все фейсбук-сервисы (фб, инстаграм и вотсапп). Потому, что ИИ посчитает, что вы гомофобный исламофоб — а потом кто-то очень умный скажет «в чём проблема, гугль/фейсбук — частные компании, не нравится — пиши в блокнотик».
Я думаю, до первых могучих мега-кластерфаков с ИИ осталось лет 5-7. Следующий биржевой пузырь, или веерное отключение, или войнушка — что-то замутится, и не потому, что люди плохие (я вообще за всю свою жизнь ни разу не повстречал ни одного плохого человека), а потому, что вещи ломаются, а софтинушка — тем более.
Лет 5-7, не больше. Сомневаетесь?
МОРАЛЬ — некоторые вещи всё же лучше делать вручную, по-старинке. Даже миньет.
'Формула миньета, или можем ли мы доверять искусственному интеллекту?' Комментариев пока нет
Будьте первым комментатором!