15 декабря 2025
Дайджест новостей: события из мира науки

Факторы, определяющие долговечность стартапов в IT

Аргентинскими учёными было проведено исследование, в котором они изучали стартапы в Кремниевой долине в промежутке с 2000 года по 2020 год. Данные показали, что долговечность стартапов определяется совокупностью структурных, поведенческих и эмоциональных аспектов. От соответствия продукта рынку до сплоченности основателей, доверия инвесторов и культурной адаптивности. Наиболее показательным выводом исследования является то, что выживание это не результат удачи. Большие бюджеты или техническое совершенство не гарантирует будущее проекта. Стартапы, которые выжили, продемонстрировали исключительную компетентность в области «мягких навыков» – эмпатии, самосознании, коммуникации, способности объединить внутренних и внешних заинтересованных вокруг целостной концепции и видения. Эмоциональный интеллект оказался не просто дополнительным активом, а основополагающим требованием для преодоления неопределенности, давления и сложности жизненного цикла стартапа.

 

Запрет использования ИИ при разработке GNOME Shell

Проект GNOME запретил публиковать дополнения к GNOME Shell, сгенерированные с помощью ИИ. В правилах указано: не принимаются расширения с признаками использования генеративных инструментов – бессмысленными вставками, стилевыми ошибками, ненужными обращениями к API и комментариями-подсказками. Причина запрета объясняется резким ростом дополнений с «мусорным» кодом, который тяжело и долго проверять, а ревьюеры вынуждены тратить много времени на разбор и правки. Иногда в обсуждениях вместо разработчиков отвечал ИИ, что усугубляет проблему доверия и проверки авторства. Это кардинально отличается от подхода Fedora, где ИИ можно использовать при обязательном человеческом контроле. Сообщество обсуждает пути решения, среди которых внедрение правил проверки, обучение ревьюеров и практики, где подсказки ИИ служат вспомогательно, а автор несёт ответственность. Дополнительно предлагают метрики качества, прозрачные отчёты и аудит.

 

Этические основы применения ИИ в здравоохранении: баланс между инновациями и ответственностью

8 декабря была опубликована статья американскими исследователями, которые рассуждали о применении искусственного интеллекта в медицине. Авторы пришли к выводу, что для внедрения требуется переосмысление технологического процесса с этической точки зрения, ставящей во главу угла интересы пациентов. Процесс должен сочетать алгоритмические инновации с конкретными мерами защиты: снижением предвзятости, объяснимостью, строгим управлением данными, механизмом согласия и технологиями, повышающими конфиденциальность. Медицинские учреждения должны культивировать организационную культуру, которая обеспечивает клиническую ответственность, четкую подотчетность и вовлеченность заинтересованных сторон. Крайне важно, чтобы измеримая прозрачность, непрерывный мониторинг и инклюзивный дизайн определяли, будет ли ИИ укреплять клинические решения, улучшать результаты лечения и способствовать равноправному доступу, сохраняя при этом автономию пациентов.

 

ИИ — кибероружие?

OpenAI предупреждает, что новые крупные модели ИИ могут использоваться как кибероружие, поэтому каждый релиз планируют развивать с учётом рисков. Внутренние CTF-тесты показали резкий рост кибернавыков. В августе GPT-5 решала 27% задач, в ноябре GPT-5.1-Codex-Max 76%. Компания ожидает, что последующие модели продолжат улучшаться и могут помочь в создании эксплойтов для защищённых систем. Компания ставит защиту в приоритет, поэтому модели учат отказывать в явно вредоносных запросах, внедряют мониторинг и системы обнаружения злоупотреблений, проводят регулярные встречи с внешними экспертами и готовят программу Trusted Access для специалистов по киберзащите. Создаётся совет «Frontier Risk Council» для оценки угроз, ведётся сотрудничество через форум «Frontier Model Forum» и поддерживаются независимые оценки и гранты для исследований по укреплению цифровой безопасности.

 

Интеграция искусственного интеллекта в смешанное обучение

Мухаметшин Ленар Миннеханович, старший преподаватель КФУ предоставил своё рассуждение о проблеме. Интеграция искусственного интеллекта в смешанное обучение может улучшить образование билингвальных студентов в русско-татарской среде. ИИ помогает персонализировать обучение: системы анализируют языковой профиль студента и подбирают материалы на русском или татарском в зависимости от задачи и уровня. Это позволяет сделать татарский язык более заметным в цифровой среде и снять языковую нагрузку превращая билингвальность в ресурс, а не в проблему. Для работы нужны качественные лингвистические корпуса, обучение моделей с учётом особенностей обоих языков, адаптивные учебные материалы и инструменты для гибкого переключения кодов. Также важна подготовка преподавателей – необходимы практические навыки работы с AI-инструментами и умение создавать мультиязычную методику. В итоге развитие многоязычных моделей даст возможность строить персональные траектории обучения и поддерживать языковое многообразие.

 

Исследование К2Тех и Postgres Professional

К2Тех и Postgres Professional опросили более 100 ИТ/ИБ-директоров из FMCG, ритейла и финансов по защите персональных данных. Выяснилось, что главные вызовы связаны не с внешними атаками, а с внутренними процессами, например, обращением с данными в DevOps и Data-циклах. 33% указали защиту тестовых и аналитических сред как приоритетную проблему; 27% назвали поиск и классификацию данных; 23% – интеграцию средств защиты в процессы. При этом в борьбе с внутренними угрозами безопасности наиболее эффективной мерой 47% участников опроса назвали запрет прямого доступа к данным для всех ролей пользователей, включая администраторов баз данных. При выборе СУБД для 93% главным факторам была встроенная защита СУБД. Второе место – контроль доступа и третье место – сертификаты. 63% считают, что встроенные механизмы закрывают потребности, 24% используют внешние форки.

Источник информации: Айрат Фахрутдинов