Запитання з тегом «algorithms»

Однозначний перелік обчислювальних кроків, що стосуються пошуку рішення класу проблем.

1
Алгоритм: Двійковий пошук, коли значення невизначені
Мені потрібен алгоритм для здійснення двійкового пошуку, коли тест на кожному кроці може дати неправильний результат. Передумови: Мені потрібно розмістити учнів на найбільш відповідних 12 рівнях складності. Нинішній підхід є грубою силою і задає 60 запитань із численним вибором з 4 відповідями, що збільшують труднощі, зупиняючись після трьох неправильних, і …
11 algorithms 

2
Чому руніф не створює однаковий результат кожного разу?
Чому так, що генератори випадкових чисел, як runif()у R, не створюють однаковий результат кожного разу? Наприклад: X <- runif(100) X щоразу генерує різні результати. Яка причина щоразу створювати різні результати? Які функції функціонують у фоновому режимі для цього?

2
Що це все про машинне навчання в реальній практиці?
Я є новачком у машинному навчанні (також деяка статистика), на деякий час вивчав знання (контрольовані / непідтримувані алгоритми навчання, відповідні методи оптимізації, регуляризація, деякі філософії (наприклад, компроміс з відхиленням відхилення?)). Я знаю, що без будь-якої реальної практики я не отримав би глибокого розуміння цих матеріалів машинного навчання. Тож я розпочну …

1
Пояснення максимізації очікування
Я знайшов дуже корисний підручник щодо алгоритму ЕМ . Приклад та малюнок із підручника просто геніальні. Пов'язане питання щодо обчислення ймовірностей, як працює максимізація очікування? У мене є ще одне питання щодо того, як з'єднати теорію, описану в підручнику, із прикладом. Під час Е-кроку ЕМ вибирає функцію яка знижує межі …

3
Критерій зупинки для Nelder Mead
Я намагаюся реалізувати алгоритм Nelder-Mead для оптимізації функції. Сторінка вікіпедії про Нелдера-Мід напрочуд чітка щодо всього алгоритму, за винятком критерію його зупинки. Там це сумно говорить: Перевірте на конвергенцію [потрібне уточнення] . Я сам випробував кілька критеріїв: Зупиніться, якщо де малий і де - -та вершина симплекса, впорядкована від низької …

2
Чому Adaboost з деревами рішень?
Я читав трохи про алгоритми підсилення для класифікаційних завдань і зокрема Adaboost. Я розумію, що метою Adaboost є прийняття декількох "слабких учнів" і через набір ітерацій щодо даних про навчання підштовхують класифікаторів навчитися прогнозувати класи, на яких модель (и) неодноразово помиляються. Однак мені було цікаво, чому так багато прочитаних нами …

2
Обчислення VC-виміру нейронної мережі
Якщо у мене є якась фіксована непотокована (DAG) топологія (фіксований набір вузлів і ребер, але алгоритм навчання може змінювати вагу по краях) сигмовидних нейронів з вхідними нейронами, які можуть приймати рядки лише в як вхідний і веде до одного виходу (що виводить реальне значення, яке ми округляємо до 1 або …

4
Як ви протестуєте реалізацію k-засобів?
Відмова: Я опублікував це питання на Stackoverflow, але я подумав, що, можливо, це краще підходить для цієї платформи. Як ви протестуєте власну реалізацію k-засобів для багатовимірних наборів даних? Я думав запустити вже наявну реалізацію (тобто Matlab) на даних і порівняти результати з моїм алгоритмом. Але для цього потрібно, щоб обидва …

1
Чи можливий масштабний PCA?
Класичний аналіз основного компонента (PCA) - це зробити на матриці вхідних даних, стовпці якої мають нульове середнє значення (тоді PCA може "максимізувати дисперсію"). Цього можна легко досягти шляхом центрування стовпців. Однак, коли вхідна матриця буде рідкою, централізована матриця тепер буде більш рідкою, і - якщо матриця дуже велика - таким …

2
Виявлення аномалії: який алгоритм використовувати?
Контекст: Я розробляю систему, яка аналізує клінічні дані, щоб відфільтрувати неправдоподібні дані, які можуть бути помилковими. Що я робив до цього часу: Для кількісної оцінки правдоподібності моєю спробою поки що була нормалізація даних, а потім обчислення значення правдоподібності для точки p на основі її відстані до відомих точок даних у …

3
Який найефективніший спосіб навчання даних з використанням найменшої пам'яті?
Це мої дані про навчання: 200 000 Приклади х 10 000 Особливості. Тож моя матриця даних про навчання - 200 000 х 10 000. Мені вдалося зберегти це у плоскому файлі без проблем із пам'яттю, зберігаючи кожен набір даних один за одним (один приклад за іншим), оскільки я генерую функції …

4
Від електронної адреси до квазі-випадкового номера [закрито]
Зачинено. Це питання поза темою . Наразі відповіді не приймаються. Хочете вдосконалити це питання? Оновіть питання, щоб воно було тематичним для перехресної перевірки. Закрито 2 роки тому . Моя мета: Я хотів би мати функцію, яка приймає адресу електронної пошти та видає квазі випадкове число 1, 2, 3 або 4. …

3
Алгоритм машинного навчання для ранжирування
У мене набір елементів XXX яку я можу описати згідно nnnхарактеристики. Таким чином: xi:{ci1,ci2,…,cin}∣xi∈Xxi:{ci1,ci2,…,cin}∣xi∈Xx_i: \{c_{i1}, c_{i2}, \ldots, c_{in}\} \mid x_i \in X де cijcijc_{ij} є (числовою) оцінкою для елемента iii за характеристиками jjj. Тому мої елементи можна розглядати як точки в аnnn розмірний простір. Згідно з моїми показаннями, існують такі …

1
вартість вибірки
Я зіткнувся з такою проблемою моделювання: заданий набір {ω1,…,ωd}{ω1,…,ωг}\{\omega_1,\ldots,\omega_d\} відомих реальних чисел, розподіл на {−1,1}d{-1,1}г\{-1,1\}^d визначається через P(X=(x1,…,xd))∝(x1ω1+…+xdωd)+П(Х=(х1,…,хг))∝(х1ω1+…+хгωг)+\mathbb{P}(X=(x_1,\ldots,x_d))\propto (x_1\omega_1+\ldots+x_d\omega_d)_+ де (z)+(z)+(z)_+ позначає позитивну частину zzz. Хоча я можу подумати про пробірник Metropolis-Hastings, націлений на цей розподіл, мені цікаво, чи існує ефективний прямий пробовідбірник, скориставшись великою кількістю нульових ймовірностей для зменшення …

2
Як відібрати вибірку усіченого багаточленного розподілу?
Мені потрібен алгоритм для вибірки усіченого багаточленного розподілу. Це є, х⃗ ∼1Zpх11…pхккх1! …хк!x→∼1Zp1x1…pkxkx1!…xk!\vec x \sim \frac{1}{Z} \frac{p_1^{x_1} \dots p_k^{x_k}}{x_1!\dots x_k!} де - константа нормалізації, має позитивних компонентів, а . Я вважаю лише значення у діапазоні .ZZZх⃗ x→\vec xкkk∑хi= n∑xi=n\sum x_i = nх⃗ x→\vec{x}а⃗ ≤х⃗ ≤б⃗ a→≤x→≤b→\vec a \le \vec x …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.