Перейти к содержанию

Использование отходов производства или Голь на выдумке


zyablik

Рекомендуемые сообщения

Пришел старый знакомый (назовем его так). Говорит: Нет у тебя вентилятора? Посмеялись, но тут он увидел ящик со старыми кулерами от CPU, видеокарт и пр. Дай, говорит, мне. Говорю: возьми, но учти, что они на 12 В постоянного напряжения. Как быть? — говорит. Я ему: Тогда прихвати еще блок питания на 250 Wt (меньше не было). В итоге пришли к тому, что я испытаю всё у себя.
Никогда особо не занимался ремонтом БП. В провинции они горят часто, т.к. у народа, как правило, денег на бесперебойники нет — и мы их (БП) просто меняем. Помню только, что без нагрузки они не включаются. Ну взялся. Пока только для проработки теории.
На фото: как раз начало опыта. 12В-ные желтый/красный провода соединил одноименные + черный (0). Подключен маленький кулер. Ему нужен большой (рядом). Вопрос: запустится БП?

Модель: Sven 250XA (ATX) на 250W.

blockpitaniya1.jpg

Изменено пользователем zyablik
Ссылка на комментарий
Поделиться на другие сайты

Нет.

 

Нужен еще сигнал на включение на основном разъеме:

http://webhamster.ru/mytetrashare/index/mtb0/13767631730y7ybmzk9f

Изменено пользователем andrew75
  • Спасибо (+1) 1
  • Согласен 1
Ссылка на комментарий
Поделиться на другие сайты

Всё работает. Причем и с большим вентилятором. Правда (как видно на фото), у большого кулера (на 12В) только два выхода (красный и черный провода). Красный подключил к желтому — крутится сильнее, чем красный к красному :) На красном 5В что ли...
Придется ему до кучи подарить рариретный CDD-ROM x32 :) чтобы БП еще немного загрузить. А Audio-CD и наушники старинные сам надыбит...

Изменено пользователем zyablik
  • Улыбнуло 1
Ссылка на комментарий
Поделиться на другие сайты

Придется ему до кучи подарить рариретный CDD-ROM x32 :) чтобы БП еще немного загрузить.

Если цель подарка, только для того чтобы нагрузить, то это лишнее. Нагружать блок питания, а не включать в холостую при ремонте надо для того, что под нагрузкой он может себе вести иначе. Так что раз у вас работает куллер, то лишнию переферию цеплять, только для того чтобы нагрузить не надо.

Ссылка на комментарий
Поделиться на другие сайты

Вобще на радиотехнических форумах настоятельно рекомендуют нагружать цепь 5В во избежание вздутия електролитов и выхода из строя транзисторов генератора.

Ссылка на комментарий
Поделиться на другие сайты

@Ummitium,

Вы бы хоть посмотрели в первом посте, что:

1) Блок питания всего 250W.

2) Что включать от него собираются только куллер. Так что если под полной нагрузкой он и будет барахлить, то ТС этого волновать не будет, главное чтобы куллер тянуло.

Да и судя по дате последнего ответа ТС, блок питания скорее всего уже подарили.

  • Спасибо (+1) 1
  • Согласен 1
Ссылка на комментарий
Поделиться на другие сайты

@Ummitium,

...включать от него собираются только куллер. Так что если под полной нагрузкой он и будет барахлить, то ТС этого волновать не будет, главное чтобы куллер тянуло. Да и судя по дате последнего ответа ТС, блок питания скорее всего уже подарили.

Что Вы хотите этим сказать? ТС — это я? Типа "тупой спрашиватель"...

Не знаю. Пока не звонили ниоткуда, включая из ПС :D

  • Улыбнуло 1
Ссылка на комментарий
Поделиться на другие сайты

Пожалуйста, войдите, чтобы комментировать

Вы сможете оставить комментарий после входа в



Войти
  • Похожий контент

    • Gillox
      От Gillox
      Добрый вечер. Сегодня сидел, смотрел видео и тут бац, вылетел синий экран с таким текстом внизу: "System_Thread_Exception_Not_Handled; что вызвало проблему: nvlddmkm.sys", после перезапуска, через 2 часа вылетел новый синий экран с ошибкой "kernel mode heap corruption". До синий экран с последней ошибкой тоже вылезал, но замечалось при играх в тяжелые игры. Как исправить эту ситуацию?
    • KL FC Bot
      От KL FC Bot
      Уже сегодня технологии на базе ИИ внедрены в каждой второй компании, а за ближайшие два года к ним присоединится еще 33% коммерческих организаций. ИИ в том или ином виде будет внедрен повсеместно. Экономический эффект, который получают компании от внедрения, варьируется от повышения удовлетворенности клиентов до прямого роста выручки. По мере того как понимание сильных и слабых сторон ИИ-систем бизнесом будет углубляться, эффективность только увеличится. Но уже сейчас очевидно, что о рисках, которые несет внедрение ИИ, нужно подумать заранее.
      Даже ранние примеры внедрения демонстрируют, что цена ошибки ИИ-системы может быть высока и может выражаться в том числе во влиянии на репутацию, отношения с клиентами, здоровье пациентов и многое другое. А если учесть еще и киберфизические системы вроде автономных автомобилей, то вопросы безопасности станут еще острее.
      Внедрять безопасность постфактум, как это было с предыдущими поколениями технологий, будет дорого и порой невозможно. Чтобы в этом убедиться, достаточно найти свежие оценки ущерба, который мировой экономике наносит киберпреступность: на 2023 год это $8 трлн. Неудивительно, что страны, претендующие на технологическое лидерство в XXI веке, торопятся внедрить регулирование ИИ (например, China’s AI Safety Governance Framework, EU AI Act, US Executive Order on AI). Но в законах редко указываются технические подробности и практические рекомендации — это не их задача. Поэтому для практического применения любых регуляторных требований формата «обеспечить надежность и этичность ИИ, а также контролируемость его решений» необходимы конкретные практические рекомендации, позволяющие достичь этого результата.
      Чтобы помочь практикам, внедряющим ИИ уже сегодня, а также сделать будущее нашего мира более безопасным, специалисты «Лаборатории Касперского» при участии Эллисон Вайлд, члена команды по функциональной совместимости Сети по вопросам политики в области искусственного интеллекта Форума ООН по управлению Интернетом; доктора Мелодены Стивенс, профессора управления инновациями и технологиями школы государственного управления имени Мохаммеда бин Рашида; и Серхио Майо Масиаса, менеджера инновационных программ из Технологического института Арагона, создали набор рекомендаций. Документ был представлен в ходе семинара «Кибербезопасность в сфере ИИ: баланс между инновациями и рисками» на 19-м ежегодном Форуме по управлению Интернетом (UN Internet Governance Forum, IGF) для обсуждения с международным сообществом формирующих политику работы с AI экспертов.
      Следование описанным в документе практикам поможет инженерам, специалистам DevOps и MLOps, которые разрабатывают и затем эксплуатируют ИИ-решения, достичь высокого уровня защищенности и безопасности ИИ-систем на всех этапах их жизненного цикла. Рекомендации документа нужно индивидуально оценивать для каждого внедрения ИИ, поскольку их применимость зависит от разновидности ИИ и модели внедрения.
      Какие риски нужно учесть
      Многообразие применений ИИ вынуждает организацию учитывать очень разнородные риски:
      Риск от неиспользования ИИ. Звучит на первый взгляд забавно, но только сравнив выигрыш и потери компании от внедрения ИИ, можно правильно оценивать все остальные риски. Риски несоответствия регулированию. Быстро развивающееся регулирование ИИ делает этот риск динамичным, его нужно часто оценивать заново. Кроме регулирования ИИ как такового, нужно учитывать сопутствующие риски, например нарушения законов по обработке персональных данных. ESG-риски, то есть социально-этические риски применения ИИ, риски раскрытия чувствительной информации и риски для экологии. Риск нецелевого использования ИИ-сервисов пользователями — от шуточных до злонамеренных сценариев. Угрозы ИИ-моделям и наборам данных, применявшимся в тренировке. Угрозы сервисам компании, возникающие при внедрении ИИ. Возникающие при этом угрозы данным, которые обрабатываются в рамках этих сервисов. При этом «под капотом» трех последних групп рисков находятся все угрозы и задачи, традиционные для ИБ в сложных облачных инфраструктурах: контроль доступа и сегментация, управление уязвимостями и обновлениями, создание систем мониторинга и реагирования, контроль цепочек поставок.
       
      View the full article
    • kmscom
      От kmscom
      у меня вот так показано верхнее меню в гугле

      крайний правый кружочек не кликабелен

      хотя в тоже время в Microsoft Edge

      и уведомления сразу показывает на значке колокольчика и аватар с птичкой кликабелен
       
      Я немогу понять, это проделки самого браузера (или его авторов) или у меня частная проблема.

      Сам сервис работает, но как авторизоваться в Google не понятно
      UPD в режиме ингкогнито, в Гугл работает.
      хм, будем разбираться
    • Wrtg
      От Wrtg
      Дня 2 назад скачал Kaspersky free дабы провериться, и программа показала, что есть проблема, связанная то ли с пользователями, то ли с правами доступа. Я, конечно, решил, что надо исправить эту проблему, и нажал на соответствующую кнопку в антивирусе. При запуске многих приложений, которые раньше запускались без проблем. теперь всплывает окно:, если точнее, то окно всплывает после нескольких минут после попытки запуска. Я пробовал выдать себе права администратора, думал это поможет, раз нет нужных разрешений для доступа к файлу, но в итоге сделал еще хуже: теперь даже в безопасном режиме всплывает данное окно. Также стоит отметить, что раньше всплывало уведомление, о неудачной попытке подключения службы gpsvc, а теперь этого нет. Хотя, когда gpsvc не подключался, то и проблем не было. Также я не могу теперь отключить виндовс дефендр (защиту в реальном времени и т.д.). Помимо этого я не могу переустановить систему, ведь для начала её надо скачать на флешку (из настроек я тоже не могу переустановить), а все скачанные файлы(в случае с переустановкой: MediaCreationTool), не могут запуститься после работы антивируса.
    • KL FC Bot
      От KL FC Bot
      Стремительное развитие ИИ-систем и попытки их повсеместного внедрения вызывают и оптимизм, и опасения.  Искусственный интеллект способен помочь человеку в самых разных областях деятельности, и индустрия кибербезопасности знает об этом не понаслышке. Например, мы в «Лаборатории Касперского» применяем машинное обучение уже почти 20 лет и точно знаем, что без ИИ-систем в принципе невозможно защититься от гигантского количества существующих киберугроз. За это время мы идентифицировали и широкий спектр проблем, которые могут порождаться использованием ИИ — от обучения на некорректных данных и злонамеренных атак на ИИ-системы до применения ИИ в неэтичных целях.
      Различные площадки и международные организации уже разработали общие принципы этичного ИИ (например,  вот рекомендации ЮНЕСКО), однако более конкретные руководства для индустрии кибербезопасности пока не стали общепринятыми.
      Чтобы применять искусственный интеллект в кибербезопасности без негативных последствий, мы предлагаем индустрии принять Этические принципы ИИ (AI ethical principles), первую версию которых мы представляем на проходящем в эти дни в Киото саммите ООН Internet Governance Forum. Разумеется, принципы требуют обсуждения в индустриальном сообществе и уточнения, однако мы их придерживаемся уже сейчас.  Что же это за принципы? Вот краткая версия.
      Прозрачность и объяснимость
      Пользователь имеет право знать, что обеспечивающая его безопасность компания использует ИИ-системы. Знать, в каких целях и каким образом эти системы принимают решения. Поэтому мы обязуемся разрабатывать системы ИИ, работа которых интерпретируема и объяснима в максимально возможном объеме, а также внедрять необходимые предосторожности и защитные меры, чтобы ИИ-системы генерировали корректные результаты. При необходимости с кодом, техническими и бизнес-процессами «Лаборатории Касперского» можно ознакомиться посетив один из наших центров прозрачности.
       
      Посмотреть статью полностью
×
×
  • Создать...