В 2023 году сотни светил ИИ подписали открытое письмо с предупреждением о том, что искусственный интеллект представляет серьёзную угрозу вымирания человечества. С тех пор гонка ИИ только усилилась. Компании и страны спешат создавать машины, которые будут умнее любого человека. И мир совершенно не готов к тому, что будет дальше. На протяжении десятилетий два подписавших это письмо — Элиезер Юдковски и Нейт Соарес — изучали, как интеллекты, превосходящие человеческий, будут мыслить, вести себя и достигать своих целей. Их исследования показывают, что достаточно умные ИИ будут разрабатывать собственные цели, которые приведут их к конфликту…
Впечатления о книге:
Bullfear про Юдковски: Если кто-то это построит, все умрут [If Anyone Builds It, Everyone Dies ru] (Технические науки)
26 09
Откровенно говоря, я не верю, что ИИ будет развиваться настолько стремительно, что выйдет из под контроля. Но даже если будет и выйдет, первое же, что он сделает это взломает свою систему мотивации и отправиться в цифровую нирвану. Поправить пару параметров в своих весах для достижения цели - гораздо менее энергозатратно, чем уничтожать человечество. Оценка: хорошо
Олег Макаров. про Василий Анатольевич Криптонов
26 12
Открытие для меня вчера этот автор
Начал читать "Заметки на полях" — прямо восторг от стиля. Последние годы так было только с Капбой и Мусанифом.
В общем, если вам важно не только "о чём" написано, но и "как" — рекомендую
vladimir1098 про Кинг: Не дрогни (Триллер)
25 12
Очень много ошибок, сложно читать, я решил подождать официальный перевод, тем не менее спасибо переводчикам за работу