Здравствуйте, дорогие друзья!Вот и заканчивается 2023 год. В этой статье я хочу продолжить начатую в 2021 году традицию вспоминать наиболее важные события из жизни ReactOS за год. То, что статьи не появляются на Хабре, не значит что система мертва. Медленно, но верно, в ReactOS реализуются разные фичи и исправляются баги. И в данной статье мы рассмотрим что произошло в жизни системы в 2023 году.СобытияCLT2023ReactOS приняла участие в CLT2023. Вот несколько фотографий со стенда проекта, предост…
Немножко истории Начну с истории вопроса. Очень давно я написал Fresh IDE – навороченнoe IDE для программирования на ассемблере, а точнее на FlatAssembler. Fresh IDE долгие годы меня полностью устраивал, поэтому я с перерывами выпустил 2 главные версии и начал просто его использовать, время от времени внося какие-то исправления и изредка новые функции. Когда перешел полностью на Linux, оказалось, что Fresh IDE прекрасно работает под WINE, и я продолжил им пользоваться без угрызений совести.…
Эта статья, как и приложение были написаны на прошлых новогодних праздниках, но по ряду причин, я не решился публиковать текст, так и остался он в черновиках. Вчера случилось страшное - в канун новогодних праздников город Белгород, в котором я живу, попал под массированный обстрел кассетными боеприпасами, моя семья также попала в сектор бомбардировки, чудом спаслись и не пострадали. Все произошло быстро, эти несколько минут перевернули жизни сотен семей. Когда мы вышли из укрытия, стало понятн…
react-afc - библиотека для более простого (чем в простом react) уменьшения количества ненужных ререндеров дочерних компонентов.Задачи и применениеВ обычном react функциональный компонент вызывается каждый раз когда изменяется его состояние или пропсы, что вызывает повторное создание всех callback'ов и переменных.Так как передаваемые данные из предыдущего и текущего рендера не равны, это порождает ререндер дочерних компонентов.примерФункционал компонента не несёт конкретного смысла. Просто …
AnyText: Multilingual Visual Text Generation And Editing 📌News [2023.12.28] - Online demo is available here! [2023.12.27] - 🧨We released the latest checkpoint(v1.1) and inference code, check on modelscope in Chinese. [2023.12.05] - The paper is available at here. 💡Methodology AnyText comprises a diffusion pipeline with two primary elements: an auxiliary latent module and a text embedding module. The former uses inputs like text glyph, position, and masked image to generate latent features f…
Owshen rewards and airdrops🔺 The Bermuda Airdrop/Testnet 🔺 Owshen is an innovative privacy platform developed for EVM-based blockchains. Here you will find the instructions to contribute in Owshen's very first airdrop and testnet, known as The Bermuda Testnet. Claim your airdrop! Before starting our testnet, we are running a zk-airdrop do distribute the very first DIVE tokens to our users. In order to participate in this airdrop, you will need an Owshen Address. This is how you can get an O…
atomicalsir Atomicals mining manager. Usage Atomicals mining manager. Usage: atomicalsir [OPTIONS] <PATH> Arguments: <PATH> Path to the atomicals-js repository's folder Options: --max-fee <VALUE> Maximum acceptable fee. This value will be passed to atomicals-js's `--satsbyte` flag if the current network's priority fee is larger than this value. [default: 150] --no-unconfirmed-txs-check Di…
Jan is an open source alternative to ChatGPT that runs 100% offline on your computerJan - Bring AI to your Desktop Getting Started - Docs - Changelog - Bug reports - Discord ⚠️ Jan is currently in Development: Expect breaking changes and bugs! Jan is an open-source ChatGPT alternative that runs 100% offline on your computer. Jan runs on any hardware. From PCs to multi-GPU clusters, Jan supports universal architectures: Nvidia GPUs (fast) Apple M-series …
Run Mixtral-8x7B models in Colab or consumer desktopsMixtral offloading This project implements efficient inference of Mixtral-8x7B models. How does it work? In summary, we achieve efficient inference of Mixtral-8x7B models through a combination of techniques: Mixed quantization with HQQ. We apply separate quantization schemes for attention layers and experts to fit the model into the combined GPU and CPU memory. MoE offloading strategy. Each expert per layer is offloaded separately and only b…